Análisis de Datos de Imágenes FNA para el Diagnóstico de Cáncer de Mama

Autores: Claudia Heredia Ceballos, Manuel Otero Barbasán, Marta Pineda Gisbert, Javier Fernández Castillo.

Grupo: G5.

Organización: Universidad de sevilla.

Resumen

Este proyecto tiene como objetivo la aplicación de técnicas de aprendizaje supervisado y no supervisado para el diagnóstico de cáncer de mama, utilizando un conjunto de datos que contiene características extraídas de imágenes de aspirado con aguja fina (FNA) de masas mamarias. El conjunto de datos contiene 569 muestras, con 357 benignas y 212 malignas, y 33 características que describen diversas propiedades de los núcleos celulares en las imágenes. En este estudio, se explorarán varios enfoques de clasificación supervisada, como CART, Random Forest, SVM, Regresión logística y redes neuronales para predecir el diagnóstico de las muestras, además de aplicar técnicas no supervisadas como el clustering y la reducción de dimensionalidad a través de PCA y T-SNE. Se espera que el análisis combinado de ambos enfoques permita mejorar la precisión en el diagnóstico y proporcionar una mejor comprensión de los patrones subyacentes en los datos. Se discutirán los resultados obtenidos y se presentarán conclusiones sobre la efectividad de las técnicas empleadas.

1. Introducción

El diagnóstico temprano y preciso del cáncer de mama es crucial para un tratamiento exitoso. En este estudio, se emplea el conjunto de datos Breast Cancer Wisconsin (Diagnostic) Data Set, que contiene características derivadas de imágenes FNA de células de tejido mamario.

El FNA es una técnica de diagnóstico utilizada para evaluar la naturaleza de las masas mamarias. Durante el procedimiento, se extrae una pequeña cantidad de tejido de la masa y se examina bajo un microscopio para determinar si es benigna o maligna. Las características de las células, como la forma, el tamaño y la textura de los núcleos, pueden proporcionar información valiosa sobre la naturaleza del tumor.

En la Figura 1 se ilustra el procedimiento de aspiración con aguja fina (FNA), que muestra la inserción de la aguja para extraer las células del tumor. La Figura 2 presenta una imagen microscópica de las células extraídas, permitiendo observar sus características una vez realizado el FNA.

Procedimiento de Aspiración con Aguja Fina (FNA)
Figura 1:Procedimiento FNA

Células extraídas de FNA
Figura 2: Células extraídas de FNA

El conjunto de datos incluye 33 características, como el radio, la textura, el perímetro y la simetría de los núcleos celulares, las cuales se utilizan para determinar si una muestra es benigna o maligna.

Estas características se pueden agrupar en:

Relacionadas con el tamaño
Incluyen medidas que describen el tamaño y la extensión de los núcleos celulares. El radio mide el tamaño de la circunferencia y se reporta como la media (radius_mean), el peor caso (radius_worst) y la desviación estándar (radius_se). El perímetro indica la longitud alrededor del núcleo, reportado de manera similar como media (perimeter_mean), peor caso (perimeter_worst) y desviación estándar (perimeter_se). Por último, el área representa el espacio ocupado por el núcleo, también dividido en media (area_mean), peor caso (area_worst) y desviación estándar (area_se).

Relacionadas con la forma
Estas variables describen características geométricas de los núcleos, enfocándose en irregularidades en su borde. La suavidad mide la regularidad de los bordes (smoothness_mean, smoothness_worst, smoothness_se), mientras que la compacidad evalúa qué tan redonda es la forma del núcleo (compactness_mean, compactness_worst, compactness_se). La concavidad mide el grado de hundimiento en los bordes (concavity_mean, concavity_worst, concavity_se) y los puntos cóncavos representan el número de puntos específicos donde estos hundimientos son evidentes (concave points_mean, concave points_worst, concave points_se).

Relacionadas con la textura y fractales
Estas características están asociadas a la apariencia y complejidad de la imagen de los núcleos celulares. La textura mide la variación en la intensidad de los píxeles y se reporta como media (texture_mean), peor caso (texture_worst) y desviación estándar (texture_se). Por su parte, la dimensión fractal describe la irregularidad del borde de los núcleos celulares y también se mide como media (fractal_dimension_mean), peor caso (fractal_dimension_worst) y desviación estándar (fractal_dimension_se).

El análisis se centra en la aplicación de técnicas de aprendizaje supervisado, como CART, Random Forest y SVM, para predecir el diagnóstico basado en las características numéricas. Además, se aplicarán técnicas de aprendizaje no supervisado, como el clustering y la reducción de dimensionalidad mediante PCA , para explorar los patrones ocultos en los datos y posiblemente mejorar la precisión de los modelos.

2. Metodología

El desarrollo de este proyecto se llevará a cabo a través de un enfoque estructurado y secuencial en varias fases, con el objetivo de analizar y predecir el diagnóstico de cáncer de mama utilizando imágenes FNA. Los pasos clave del proceso son los siguientes:

  1. Análisis Inicial y Preprocesamiento de los Datos
    En esta fase inicial, se procederá con la carga de los datos del conjunto de datos “Breast Cancer Wisconsin (Diagnostic)”, que contiene las características extraídas de imágenes de aspiración con aguja fina (FNA). Se realizará una exploración preliminar de los datos para comprender la naturaleza de las variables y la distribución de las clases (benigno y maligno). Además, se identificará y gestionará cualquier valor faltante, y se evaluará la necesidad de realizar transformaciones adicionales, como la normalización o la conversión de variables categóricas.

  2. Aplicación de Modelos Supervisados
    En esta etapa, se implementarán y entrenarán varios modelos supervisados para la clasificación de los tumores como benignos o malignos. Los modelos seleccionados incluyen:

    • CART (Classification and Regression Trees): Un modelo de árbol de decisiones que permite realizar predicciones mediante una serie de reglas basadas en los datos de entrada.
    • Random Forest: Un conjunto de árboles de decisión que mejora la precisión mediante el uso de técnicas de muestreo y combinación de varios modelos.
    • SVM (Support Vector Machine): Un modelo que encuentra el hiperplano óptimo que separa las clases de manera eficaz.
    • Regresión logística: Un modelo estadístico que puede adaptarse a diferentes distribuciones de las variables dependientes, como la binomial en este caso.
      Se evaluará la Importancia de las Variables en los modelos para identificar las características más influyentes en las predicciones.
    • Redes Neuronales: Un modelo de aprendizaje profundo que puede capturar relaciones complejas entre las variables y adaptarse a patrones no lineales en los datos.
  3. Experimentación con el Dataset Reducido
    Posteriormente, se realizará una experimentación en la que se modificarán las características del dataset mediante la eliminación de variables menos relevantes, basándose en la importancia de las variables obtenida de los modelos. Esto permitirá optimizar los modelos y reducir el sobreajuste, mejorando la capacidad de generalización del sistema de diagnóstico.


  1. Aplicación de Modelos No Supervisados
    Para explorar los patrones subyacentes en los datos sin utilizar etiquetas de clase, se implementarán modelos no supervisados. Estos incluirán:
    • Clustering: En primer lugar se buscará el número de clusters con el método del codo y silhouette Se utilizarán técnicas como K-means,Clustering jerárquico o DBSCAN para agrupar las observaciones de acuerdo con similitudes en sus características. Esto permitirá identificar posibles grupos de datos que podrían no haber sido evidentes en la clasificación supervisada.
    • Reducción de Dimensionalidad: Para reducir el número de variables y simplificar el análisis, se emplearán técnicas como PCA (Principal Component Analysis) y T-SNE. Estas técnicas ayudarán a descubrir las estructuras latentes en los datos y facilitarán la visualización y el análisis posterior.
    • Algoritmo a priori: Se aplicará el algoritmo a priori para identificar reglas de asociación entre las características del dataset. Esto permitirá descubrir patrones interesantes y relaciones ocultas entre las variables.
  2. Presentación de los Resultados y Conclusiones
    Finalmente, se presentarán los resultados obtenidos de los modelos evaluados, incluyendo tablas, gráficos y análisis comparativos. En esta sección se discutirá la efectividad de las técnicas empleadas, destacando los modelos más precisos y los enfoques que mejor se ajustan a las necesidades del diagnóstico de cáncer de mama. Las conclusiones se centrarán en la viabilidad y los posibles pasos a seguir para mejorar el rendimiento del modelo y su aplicabilidad en un entorno clínico.

3. Implementación

En esta sección se muestran los pasos que se han seguido para la realización del proyecto. Incluye el Análisis Inicial y Preprocesamiento de los Datos, los modelos supervisados y no supervisados utilizados.

3.1. Análisis Inicial y Preprocesamiento de los Datos.

3.1.1. Importación de librerías

Se instalan los paquetes que serán necesarios durante el proyecto:

  • Tidyverse: Para la manipulación de datos y gráficos.
  • Caret: Para el preprocesamiento y modelado Lattice es requerido por Caret
  • DataExplorer: Para la exploración automatizada de los datos.
  • Dplyr: Proporciona una gramática de manipulación de datos.
  • Ggplot2: Personalización de gráficas.
  • Psych: Para análisis estadístico
  • Corrplot: Visualización de matriz de correlación.
  • Car: Para complementar técnicas de regresión.
  • pRoc: Proporciona herramientas para visualizar., suavizar y comparar curvas Roc.
# Nota: Descomentar las líneas de instalación si no se tienen los paquetes instalados. Comando ctrl+shift+c para descomentar.

# install.packages("tidyverse")
# install.packages("caret")
# install.packages("DataExplorer")
# install.packages("dplyr")
# install.packages("ggplot2")
# install.packages("lattice")
# install.packages("psych")
# install.packages("corrplot")
# install.packages("ggcorrplot")
# install.packages("car")
# install.packages("pROC")
# install.packages("flextable")
# install.packages("kernlab")
# install.packages("cluster")
# install.packages("dbscan")
# install.packages("Rtsne")
# install.packages("arules")
# install.packages("arulesViz")
library(tidyverse)
library(caret)
library(DataExplorer)
library(dplyr)
library(ggplot2)
library(lattice)
library(psych)
library(corrplot)
library(ggcorrplot)
library(pROC)
library(car)
library(flextable)
library(kernlab)
library(cluster)
library(dbscan)
library(Rtsne)
library(arules)
library(arulesViz)

3.1.2. Carga y visualización de datos

Para comenzar el análisis es necesario realizar la carga de los datos, se visualizan las primeras filas y la estructura de nuestro dataset.

data <- read.csv("data/data.csv")

head(data)
dim <- dim(data)

cat("Número de columnas:", dim[2], "\n")
Número de columnas: 33 
cat("Número de filas:", dim[1], "\n")
Número de filas: 569 

Como se puede observar, el dataset cuenta con 569 filas y 33 columnas.

A continuación, se muestra la estructura, tipos y algunos ejemplos de las variables del dataset para tener una visión global del las distintas variables con las que se cuenta.

str(data)
'data.frame':   569 obs. of  33 variables:
 $ id                     : int  842302 842517 84300903 84348301 84358402 843786 844359 84458202 844981 84501001 ...
 $ diagnosis              : chr  "M" "M" "M" "M" ...
 $ radius_mean            : num  18 20.6 19.7 11.4 20.3 ...
 $ texture_mean           : num  10.4 17.8 21.2 20.4 14.3 ...
 $ perimeter_mean         : num  122.8 132.9 130 77.6 135.1 ...
 $ area_mean              : num  1001 1326 1203 386 1297 ...
 $ smoothness_mean        : num  0.1184 0.0847 0.1096 0.1425 0.1003 ...
 $ compactness_mean       : num  0.2776 0.0786 0.1599 0.2839 0.1328 ...
 $ concavity_mean         : num  0.3001 0.0869 0.1974 0.2414 0.198 ...
 $ concave.points_mean    : num  0.1471 0.0702 0.1279 0.1052 0.1043 ...
 $ symmetry_mean          : num  0.242 0.181 0.207 0.26 0.181 ...
 $ fractal_dimension_mean : num  0.0787 0.0567 0.06 0.0974 0.0588 ...
 $ radius_se              : num  1.095 0.543 0.746 0.496 0.757 ...
 $ texture_se             : num  0.905 0.734 0.787 1.156 0.781 ...
 $ perimeter_se           : num  8.59 3.4 4.58 3.44 5.44 ...
 $ area_se                : num  153.4 74.1 94 27.2 94.4 ...
 $ smoothness_se          : num  0.0064 0.00522 0.00615 0.00911 0.01149 ...
 $ compactness_se         : num  0.049 0.0131 0.0401 0.0746 0.0246 ...
 $ concavity_se           : num  0.0537 0.0186 0.0383 0.0566 0.0569 ...
 $ concave.points_se      : num  0.0159 0.0134 0.0206 0.0187 0.0188 ...
 $ symmetry_se            : num  0.03 0.0139 0.0225 0.0596 0.0176 ...
 $ fractal_dimension_se   : num  0.00619 0.00353 0.00457 0.00921 0.00511 ...
 $ radius_worst           : num  25.4 25 23.6 14.9 22.5 ...
 $ texture_worst          : num  17.3 23.4 25.5 26.5 16.7 ...
 $ perimeter_worst        : num  184.6 158.8 152.5 98.9 152.2 ...
 $ area_worst             : num  2019 1956 1709 568 1575 ...
 $ smoothness_worst       : num  0.162 0.124 0.144 0.21 0.137 ...
 $ compactness_worst      : num  0.666 0.187 0.424 0.866 0.205 ...
 $ concavity_worst        : num  0.712 0.242 0.45 0.687 0.4 ...
 $ concave.points_worst   : num  0.265 0.186 0.243 0.258 0.163 ...
 $ symmetry_worst         : num  0.46 0.275 0.361 0.664 0.236 ...
 $ fractal_dimension_worst: num  0.1189 0.089 0.0876 0.173 0.0768 ...
 $ X                      : logi  NA NA NA NA NA NA ...
# sapply aplica una función a cada columna del dataframe
clases <- sapply(data, class)
clases_df <- data.frame(Clase = clases)

print(clases_df, row.names = FALSE)

Se obtienen las clases de cada columna en el conjunto de datos para entender mejor su tipo de datos y estructura. Esto permite visualizar rápidamente el tipo de variable (numérica, categórica, etc.) que se encuentra en el dataset.

Se visualiza un resumen estádistico de los datos.

describe(data)
Aviso: ningún argumento finito para min; retornando InfAviso: ningun argumento finito para max; retornando -Inf

Se verifica si existen valores faltantes en los datos utilizando la función anyNA(). Esto permite identificar rápidamente si hay datos incompletos en el dataset que puedan requerir limpieza o manejo especial.

anyNA(data)
[1] TRUE

Se observa que existen valores faltantes en el dataset. Para visualizar de manera más clara la cantidad de valores faltantes por columna, se utiliza la función plot_missing(data).

plot_missing(data)

Como puede observarse, se cuenta con 569 valores faltantes en la última columna “X”. Más adelante se procederá a eliminar esta columna.

3.1.3. Análisis exploratorio de los datos

En este paso el objetivo será entender la distribución y relaciones de variables.

3.1.3.1. Visualización de distribuciones y correlaciones:

Se visualiza un resumen gráfico general para entender las distribuciones y correlaciones entre las variables en el conjunto de datos. Esto ayuda a identificar patrones, distribuciones de frecuencia y posibles relaciones entre las diferentes columnas del dataset.

plot_intro(data)

Como se puede observar, el dataset cuenta con un 3% de columnas discretas, en concreto la columna “diagnosis” que es la variable objetivo, y un 94% de columnas continuas. Además, se observa un 3% de columnas con valores faltantes, que corresponden a la columna “X”.

Se visualizan las variables categóricas que dice si el tumor es “Maligno” o “Benigno” para contar cuántas observaciones hay de cada tipo. Esto permite ver la distribución de la columna diagnosis y entender la proporción entre ellas en el dataset.

diagnosis_counts <- table(data$diagnosis)
plot_bar(data$diagnosis)

print("Distribución de la variable 'diagnosis' Benigno (B) y Maligno (M):")
[1] "Distribución de la variable 'diagnosis' Benigno (B) y Maligno (M):"
print(diagnosis_counts)

  B   M 
357 212 

La columna “diagnosis” contiene dos clases: “B” (Benigno) y “M” (Maligno). La distribución de las clases es desigual, con 357 observaciones de la clase “B” y 212 observaciones de la clase “M”. Esto indica un desequilibrio ligero en la distribución de las clases.

Para visualizar la distribución de las variables numéricas, se utiliza la función plot_histogram(data). Esto permite ver la distribución de cada variable en el dataset y comprender mejor la variabilidad y rango de valores de las características.

plot_histogram(data)

Como se puede observar, las variables numéricas presentan diferentes distribuciones y rangos de valores. Algunas variables, como “concave.points_worst”, parecen tener una distribución sesgada hacia la derecha, mientras que otras, como “symmetry_mean”, parecen tener una distribución más simétrica. Estas diferencias en las distribuciones pueden ser útiles para identificar patrones y relaciones entre las variables.

3.1.4. Preprocesamiento de los datos

Es necesario realizar un preprocesamiento de los datos para limpiarlos y prepararlos para el análisis y modelado. Esto incluye la eliminación de valores faltantes, la codificación de variables categóricas y la selección de atributos relevantes.

3.1.4.1. Eliminación de valores faltantes

Para comenzar, se ha identificado que hay una columna con todos los valores faltantes, es decir, NA. El primer paso en el preprocesamiento será eliminar esta columna “x”.

Se verifica que la columna “X” se haya eliminado correctamente y que no haya otros valores faltantes en el dataset.

data <- data %>% select(-X)
plot_missing(data)

anyNA(data)
[1] FALSE

No quedan valores faltantes en el dataset, por lo que se procederá a eliminar la columna “id”, ya que no aporta información relevante.

data <- data %>% select(-id)

print("Busqueda de columna id en el dataset:")
[1] "Busqueda de columna id en el dataset:"
print("id" %in% colnames(data))
[1] FALSE

Como se puede observar, se ha eliminado la columna “id” y se ha verificado que no hay más valores faltantes, excepto los ya eliminados en “X”.

Después de estos procesos, contamos con un dataset de:

dim <- dim(data)

cat("Número de columnas:", dim[2], "\n")
Número de columnas: 31 
cat("Número de filas:", dim[1], "\n")
Número de filas: 569 

569 filas y 31 columnas.

3.1.4.2. Codificación de variables Categóricas

Anteriormente, vimos que nuestro dataset cuenta con una única columna de valores categóricos, “Diagnosis”, cuyos valores tienen el siguiente significado: - M (malignant) - B (benign)

El siguiente paso en el preprocesado de datos será pasar esta columna a numérica, lo que será necesario para estudiar la correlación de variables de nuestro dataset.

Como solo se presentan dos posibles valores (“M” y “B”), se aplicará Codificación Binaria: El valor “M” pasará a ser 1 y valor “B” pasará a ser 0.


#M -> 1; B -> 0
data$diagnosis <- ifelse(data$diagnosis == "M", 1, 0)

Se verifica que la columna “diagnosis” se haya codificado correctamente.

# imprimir los primeros valores de la columna diagnosis, formateado
print("Valores de la columna 'diagnosis' después de la codificación:")
[1] "Valores de la columna 'diagnosis' después de la codificación:"
data$diagnosis
  [1] 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1
 [35] 1 1 1 0 1 1 1 1 1 1 1 1 0 1 0 0 0 0 0 1 1 0 1 1 0 0 0 0 1 0 1 1 0 0
 [69] 0 0 1 0 1 1 0 1 0 1 1 0 0 0 1 1 0 1 1 1 0 0 0 1 0 0 1 1 0 0 0 1 1 0
[103] 0 0 0 1 0 0 1 0 0 0 0 0 0 0 0 1 1 1 0 1 1 0 0 0 1 1 0 1 0 1 1 0 1 1
[137] 0 0 1 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 1 0 1 0 0 1 1 0
[171] 0 1 1 0 0 0 0 1 0 0 1 1 1 0 1 0 1 0 0 0 1 0 0 1 1 0 1 1 1 1 0 1 1 1
[205] 0 1 0 1 0 0 1 0 1 1 1 1 0 0 1 1 0 0 0 1 0 0 0 0 0 1 1 0 0 1 0 0 1 1
[239] 0 1 0 0 0 0 1 0 0 0 0 0 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0
[273] 1 0 1 0 0 1 0 0 1 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 1 0 0 0
[307] 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 1 0 0 0 0 1 1 1 0 0 0 0 1 0 1 0 1
[341] 0 0 0 1 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 1 1 0 1 1 1 0 1 1
[375] 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 1 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0
[409] 1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 1 1 0 1 0 0 0 0 0 1
[443] 0 0 1 0 1 0 0 1 0 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0
[477] 0 0 0 1 0 0 0 0 0 0 0 1 0 1 0 0 1 0 0 0 0 0 1 1 0 1 0 1 0 0 0 0 0 1
[511] 0 0 1 0 1 0 1 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0
[545] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 0

A continuación, se verifica que todas las columnas del dataset sean numéricas, ya que algunos modelos de aprendizaje automático requieren que todas las variables de entrada lo sean. Para ello, se identifican las columnas categóricas y se comprueba que todas las columnas sean numéricas.


categorical_columns <- sapply(data, is.factor) | sapply(data, is.character)
names(data)[categorical_columns]
character(0)

Efectivamente, todas las columnas ahora son numéricas, lo que da paso al siguiente punto en el preprocesamiento de datos.

3.1.4.3. Estudio de correlación.

Al tener el dataset limpio de valores faltantes, NA, y solo hay presentes variables numéricas, el siguiente paso será estudiar las posibles correlaciones de nuestro dataset.

Estudiar la correlación de los datos ayuda a identificar patrones y relaciones entre variables, lo que podría conducir a nuevas hipótesis y descubrimientos. Además, un buen estudio de correlaciones podría ser útil para seleccionar variables relevantes y construir modelos en un futuro.

Los valores que se obtienen tendrán la siguiente interpretación:

  • Correlación cercana a 1: Relación positiva fuerte.
  • Correlación cercana a -1: Relación negativa fuerte.
  • Correlación cercana a 0: No hay relación lineal significativa

Se calcula la matriz de correlación para el conjunto de datos utilizando solo las observaciones completas. Esto permite visualizar las relaciones lineales entre las variables numéricas del dataset, identificando patrones de correlación positiva y negativa entre las diferentes variables.


# Calcular matriz de correlación
correlation_matrix <- cor(data, use = "complete.obs")  # Ignora valores faltantes


# Graficar matriz de correlación
corrplot(correlation_matrix, method = "color", type = "upper", tl.cex = 0.8)

Como se puede observar, dado que el conjunto de datos contiene 31 variables, la matriz de correlación resulta difícil de interpretar directamente. Para facilitar la comprensión de las relaciones entre las variables, se muestra a continuación una tabla con las parejas de atributos ordenadas por la magnitud de la correlación.

# Eliminar la columna 'diagnosis' antes de calcular las correlaciones
data_no_target <- data[, !names(data) %in% c("diagnosis")]

cor_matrix <- cor(data_no_target, use = "complete.obs")

cor_matrix_df <- as.data.frame(as.table(cor_matrix))
cor_matrix_df <- cor_matrix_df[cor_matrix_df$Var1 != cor_matrix_df$Var2, ]
cor_matrix_df <- cor_matrix_df[order(-abs(cor_matrix_df$Freq)), ]
# Eliminar duplicados. a<->b = b<->a
cor_matrix_df <- cor_matrix_df[seq(1, nrow(cor_matrix_df), by = 2), ]

print(cor_matrix_df)

En la tabla se presentan las correlaciones entre las variables independientes del conjunto de datos. Se observan correlaciones altas entre algunas de las variables, como perimeter_mean y radius_mean (0.998), perimeter_worst y radius_worst (0.994), area_mean y radius_mean (0.987), y area_worst y perimeter_worst (0.978). Estas altas correlaciones tienen sentido porque las variables de radio (radius) y perímetro (perimeter) están matemáticamente relacionadas: a medida que el radio de un tumor aumenta, también lo hace su perímetro, lo que explica las correlaciones cercanas a 1. Similarmente, las variables de área también están fuertemente correlacionadas con el radio y el perímetro, ya que un tumor con un mayor radio suele tener una mayor área. Aunque estas correlaciones son altas, no son sorprendentes, ya que todas están capturando diferentes aspectos del tamaño y la forma del tumor.

Dado que “diagnosis” es nuestra variable objetivo, vamos a observar cómo se correlacionan las demás variables con ella para entender mejor su relación y posibles influencias.

cor_with_target <- cor(data, data$diagnosis, use = "complete.obs")
correlation_df <- data.frame(Variable = names(data), Correlation = cor_with_target)
correlation_df_sorted <- correlation_df[order(-correlation_df$Correlation), ]
print(correlation_df_sorted)

En esta tabla se presenta la correlación de cada variable con la variable objetivo ‘diagnosis’. La correlación de ‘diagnosis’ consigo misma es 1, como es esperado. Las variables que presentan las correlaciones más altas con ‘diagnosis’ son concave.points_worst (0.793), perimeter_worst (0.782), concave.points_mean (0.776), radius_worst (0.776) y perimeter_mean (0.743). Estas correlaciones indican que las características relacionadas con el número de puntos cóncavos y el perímetro del tumor están fuertemente asociadas con el diagnóstico, lo que las convierte en buenos predictores del diagnóstico maligno o benigno. En general, las variables que presentan correlaciones superiores a 0.7 sugieren que son relevantes para la predicción de la variable objetivo. Estas características del tamaño y la forma del tumor, como el perímetro y los puntos cóncavos, son especialmente importantes para predecir si el tumor es maligno o benigno.

Las variables menos correlacionadas con ‘diagnosis’ son symmetry_se (-0.006), fractal_dimension_se (-0.077), texture_se (-0.008), smoothness_se (-0.067) y fractal_dimension_mean (-0.012). Estas correlaciones cercanas a 0 indican que estas características no están fuertemente asociadas con el diagnóstico y pueden no ser tan relevantes para la predicción. Esto tiene sentido ya que son errores estándar y medidas de textura y suavidad que podrían no ser tan informativas para distinguir entre tumores malignos y benignos.

3.1.4.4. Selección de Atributos

La selección de atributos se refiere al proceso de identificar y elegir las variables más relevantes para un análisis, descartando las redundantes o irrelevantes para mejorar la calidad y eficiencia del modelo. En este caso, dado que algunas variables en el dataset muestran altas correlaciones entre sí, se podría considerar eliminarlas para reducir la dimensionalidad y simplificar el análisis.

A pesar de las correlaciones fuertes entre ciertas variables, ninguna es mayor de 0,8-0.9 por lo que eliminarlas podría no ser adecuado ya que el conjunto de datos es limitado. La eliminación de variables podría llevar a una pérdida significativa de información valiosa que podría ser crucial para el análisis y las predicciones. Mantener todas las variables como “area_mean” o “perimeter_mean” aporta información única y valiosa al modelo, lo que permite capturar un panorama más completo del tumor.

Por lo tanto, se optará por mantener todas las variables. Aún así, en la experimentación con los modelos se evaluará si la eliminación de algunas variables redundantes o irrelevantes puede mejorar la precisión y la eficiencia del modelo.

3.2. Análisis Supervisado.

El aprendizaje supervisado, también conocido como machine learning supervisado, es una subcategoría del machine learning y la inteligencia artificial. Se define por el uso de conjuntos de datos etiquetados para entrenar algoritmos que clasifican los datos o predicen los resultados con precisión.

A medida que se introducen datos en el modelo, este ajusta sus ponderaciones iterativamente hasta que se ha alcanzado un ajuste adecuado, proceso que ocurre como parte de la validación cruzada.

En este análisis, la variable a predecir será “diagnosis”, que como se mencionó previamente, es binaria: 1 si el tumor es maligno y 0 si es benigno.

Se evaluaron diferentes modelos de clasificación para un conjunto de datos con 569 muestras y 30 variables, categorizados en ‘Benigno’ y ‘Maligno’. Los modelos analizados incluyen el Árbol de Decisión (CART), Random Forest (Bosque Aleatorio), Máquinas de Soporte Vectorial con núcleo Radial (SVM), Regresión logística y un clasificador con redes neuronales.

El primer paso en el análisis supervisado es realizar la división del dataset.

3.2.1. División del Dataset:

Para este paso, se utilizará la validación cruzada K-fold para dividir el dataset y evaluar el modelo. En lugar de una división simple en entrenamiento y prueba, K-fold asegura que cada subconjunto o fold del dataset sea utilizado tanto para el entrenamiento como para la prueba en diferentes iteraciones, proporcionando así una evaluación más robusta.

Establecemos una semilla para asegurar que los resultados sean reproducibles, es decir, que se obtengan los mismos resultados cada vez que se ejecute el código. Luego, configuramos el K-fold Cross-Validation con probabilidades de clase, que nos permitirá evaluar los modelos utilizando métricas de clasificación binaria.

set.seed(123)

k <- 5

train_control <- trainControl(
  method = "cv",           # Cross-validation
  number = k,              # Número de pliegues (folds)
  classProbs = TRUE,       # Habilitar probabilidades de clase
  summaryFunction = twoClassSummary, # Para métricas de clasificación binaria
  savePredictions = "final" # Guardar las predicciones finales
)

Se cambian los niveles de la variable objetivo “diagnosis” de 0 y 1 a “B” y “M” para facilitar la interpretación de los resultados y la visualización de las métricas de evaluación.

data$diagnosis <- factor(data$diagnosis, levels = c(0, 1), labels = c("B", "M"))

Para poder evaluar el rendimiento de los modelos, es necesario establecer un punto de referencia o baseline que nos permita comparar su desempeño. En este caso, utilizaremos un enfoque simple basado en la clase mayoritaria, que consiste en predecir la clase más común en el conjunto de datos sin tener en cuenta ninguna característica predictiva. Este enfoque no es útil para la predicción real, pero nos proporcionará una referencia mínima para evaluar la eficacia de los modelos posteriores.

En nuestro análisis, la clase mayoritaria se identifica como “Benigno” (B). Esto significa que, si utilizáramos este enfoque, todas las instancias se clasificarían como benignas, ignorando cualquier característica del conjunto de datos que pudiera diferenciar los casos malignos (M). Este enfoque nos proporciona una medida básica de rendimiento, incluyendo métricas como la exactitud (accuracy) y la sensibilidad para la clase mayoritaria.

Si un modelo más avanzado no puede superar este baseline en métricas clave, como el área bajo la curva ROC (AUC-ROC) o la precisión general, entonces el modelo no estaría capturando patrones significativos en los datos. Por lo tanto, no sería útil para la clasificación de los tumores de mama.

El ROC muestra la tasa de verdaderos positivos frente a la tasa de falsos positivos a diferentes umbrales de clasificación, mientras que el AUC proporciona un único valor que resume el rendimiento del modelo en términos de probabilidad de clasificación. Estos valores se utilizarán posteriormente para comparar con otros modelos, ayudando a evaluar cuál proporciona las mejores predicciones en términos de sensibilidad y especificidad.

Para el baseline se identifica a continuación la clase mayoritaria en el dataset. Luego se predice esta clase en todos los casos y se calcula la matriz de confusión para evaluar el desempeño de la predicción basada en la clase mayoritaria.

# Identificar la clase mayoritaria
majority_class <- as.character(names(sort(table(data$diagnosis), decreasing = TRUE)[1]))

# Predicción de la clase mayoritaria en todos los casos
majority_predictions <- factor(rep(majority_class, nrow(data)), levels = levels(data$diagnosis))

conf_matrix_majority <- confusionMatrix(majority_predictions, data$diagnosis)
cat("Baseline: Predicción de la clase mayoritaria\n")
Baseline: Predicción de la clase mayoritaria
print(conf_matrix_majority)
Confusion Matrix and Statistics

          Reference
Prediction   B   M
         B 357 212
         M   0   0
                                          
               Accuracy : 0.6274          
                 95% CI : (0.5862, 0.6673)
    No Information Rate : 0.6274          
    P-Value [Acc > NIR] : 0.5188          
                                          
                  Kappa : 0               
                                          
 Mcnemar's Test P-Value : <2e-16          
                                          
            Sensitivity : 1.0000          
            Specificity : 0.0000          
         Pos Pred Value : 0.6274          
         Neg Pred Value :    NaN          
             Prevalence : 0.6274          
         Detection Rate : 0.6274          
   Detection Prevalence : 1.0000          
      Balanced Accuracy : 0.5000          
                                          
       'Positive' Class : B               
                                          

Se calcula el valor del ROC (Receiver Operating Characteristic) y el AUC (Área Bajo la Curva) para evaluar el rendimiento de la predicción basada en la clase mayoritaria.



# Calcular la probabilidad de cada clase basada en las frecuencias relativas
class_probabilities <- prop.table(table(data$diagnosis))

# Crear probabilidades para el baseline
baseline_probabilities <- rep(class_probabilities[majority_class], nrow(data))

# Calcular el ROC y el AUC
roc_curve <- roc(response = data$diagnosis, 
                 predictor = baseline_probabilities, 
                 levels = rev(levels(data$diagnosis)))
Setting direction: controls < cases
cat("Valor del AUC-ROC para el baseline:", auc(roc_curve), "\n")
Valor del AUC-ROC para el baseline: 0.5 

Los resultados obtenidos para el baseline basado en la clase mayoritaria revelan las limitaciones de este enfoque simplista. El modelo clasifica correctamente todos los casos benignos (B), logrando una sensibilidad perfecta de 1.0 para esta clase. Sin embargo, su especificidad es 0.0, lo que indica que no logra identificar ningún caso maligno (M).

La exactitud general del modelo es del 62.74%, lo que coincide con la proporción de la clase mayoritaria en el conjunto de datos. Este valor representa el No Information Rate (NIR), o la precisión esperada si las predicciones se hicieran de manera aleatoria basándose únicamente en la distribución de clases. Además, el valor de kappa es 0, reflejando que las predicciones no aportan información más allá del azar.

El resultado más significativo es la incapacidad del modelo para identificar correctamente los casos malignos. Esto se evidencia por un Valor Predictivo Positivo (PPV) de 62.74%, pero un Valor Predictivo Negativo (NPV) indefinido (NaN), ya que nunca predice la clase M. Además, el área bajo la curva ROC (AUC-ROC) es de 0.5, lo que indica que el modelo no es capaz de discriminar entre las dos clases.

Este baseline denota la necesidad de utilizar modelos más avanzados que sean capaces de capturar patrones discriminativos en los datos para lograr un mejor equilibrio entre sensibilidad y especificidad. Este punto de partida servirá como referencia mínima para evaluar la eficacia de los modelos posteriores.

3.2.2. Árbol de Decisión (CART):

El árbol de decisión es un modelo simple que divide los datos en segmentos basados en reglas de decisión. Es útil para clasificaciones donde las decisiones son lógicas y fáciles de entender


# Árbol de Decisión utilizando K-fold cross-validation
model_cart <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "rpart",     # Árbol de decisión (CART)
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_cart)
CART 

569 samples
 30 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 456, 456, 455, 455, 454 
Resampling results across tuning parameters:

  cp           ROC        Sens       Spec     
  0.004716981  0.9361931  0.9383412  0.8960133
  0.049528302  0.9271145  0.9354069  0.9057586
  0.792452830  0.7196630  0.9662363  0.4730897

ROC was used to select the optimal model using the largest value.
The final value used for the model was cp = 0.004716981.
# Extraer la importancia de las variables
importance_cart <- varImp(model_cart, scale = FALSE)
importance_cart_df <- importance_cart$importance
importance_cart_df$variable <- rownames(importance_cart_df)

El primer modelo analizado es el Árbol de Decisión (CART). Este modelo utiliza un valor de complejidad de poda (cp) de 0.0047, que fue seleccionado como el mejor parámetro mediante validación cruzada.

La curva ROC del modelo es de 0.9362, lo que indica una alta capacidad para discriminar entre las dos clases.

La sensibilidad (capacidad del modelo para identificar correctamente las observaciones positivas) es de 0.9383, lo que sugiere que el modelo es muy eficiente para detectar las observaciones positivas, aunque algo menos efectivo que otros modelos en cuanto a la especificidad. De hecho, la especificidad (capacidad para identificar correctamente las observaciones negativas) es de 0.8960, lo que representa una leve caída respecto a la sensibilidad.

Este desempeño es sólido y equilibrado, pero no es el más alto entre los modelos evaluados.

3.2.3. Random Forest

El Random Forest es un algoritmo que construye múltiples árboles de decisión y realiza una predicción agregando las predicciones de todos los árboles individuales. Es robusto ante el sobreajuste.

model_rf <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "rf",        # Random Forest
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_rf)
Random Forest 

569 samples
 30 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 456, 454, 456, 455, 455 
Resampling results across tuning parameters:

  mtry  ROC        Sens       Spec     
   2    0.9907537  0.9804382  0.9241417
  16    0.9891142  0.9776213  0.9335548
  30    0.9884480  0.9636150  0.9287929

ROC was used to select the optimal model using the largest value.
The final value used for the model was mtry = 2.
# Extraer la importancia de las variables
importance_rf <- varImp(model_rf, scale = FALSE)
importance_rf_df <- importance_rf$importance
importance_rf_df$variable <- rownames(importance_rf_df)

Para entender mejor los resultados del modelo, aclarar que el parámetro mtry en el contexto de Random Forest es uno de los hiperparámetros clave que se utiliza para controlar el número de variables (características) que el modelo considera para dividir cada nodo en cada árbol del bosque. Específicamente, mtry define cuántas características serán elegidas aleatoriamente para cada nodo cuando se construye un árbol en el Random Forest.

Random Forest, muestra un desempeño destacable. Este modelo seleccionó el valor de mtry (número de variables aleatorias para cada división del árbol) igual a 2, lo que optimiza la capacidad de discriminación. Su curva ROC alcanza un valor impresionante de 0.9908, lo que es un indicador claro de su capacidad para separar las dos clases con gran precisión. Además, la sensibilidad de 0.9804 muestra que Random Forest tiene una excelente capacidad para detectar correctamente las observaciones positivas, y la especificidad de 0.9241 indica que también es eficaz en identificar las observaciones negativas. Este modelo sobresale por su alta precisión en ambos aspectos, lo que lo convierte en uno de los modelos más robustos y confiables para este conjunto de datos.

3.2.4. Support Vector Machine (SVM)

El Support Vector Machine (SVM) es un algoritmo que intenta encontrar el hiperplano que mejor separe las diferentes clases de datos.



model_svm <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "svmRadial",  # Support Vector Machine con kernel radial
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_svm)
Support Vector Machines with Radial Basis Function Kernel 

569 samples
 30 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 455, 456, 455, 454, 456 
Resampling results across tuning parameters:

  C     ROC        Sens       Spec     
  0.25  0.9913307  0.9579812  0.9434109
  0.50  0.9929140  0.9635759  0.9622370
  1.00  0.9948302  0.9748044  0.9669989

Tuning parameter 'sigma' was held constant at a value of 0.04754745
ROC was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.04754745 and C = 1.
# Extraer la importancia de las variables
importance_svm <- varImp(model_svm, scale = FALSE)
importance_svm_df <- importance_svm$importance
importance_svm_df$variable <- rownames(importance_svm_df)

El tercer modelo evaluado es el de Máquinas de Soporte Vectorial con núcleo Radial (SVM). Este modelo, con un parámetro de regularización 𝐶=1 y un valor de sigma de 0.0475, mostró un desempeño excelente en términos de la curva ROC, alcanzando un valor de 0.9948, el más alto entre todos los modelos. Esta métrica refleja una capacidad de discriminación superior, lo que implica que el modelo tiene una alta habilidad para separar correctamente las clases ‘Negative’ y ‘Positive’. La sensibilidad de 0.9748 y la especificidad de 0.9670 también son notablemente altas, lo que sugiere que el modelo tiene un buen rendimiento tanto en la detección de las observaciones positivas como en la correcta identificación de las negativas. Sin embargo, es importante destacar que el modelo SVM presentó varias advertencias durante el proceso de optimización (warnings), relacionadas con problemas de convergencia y probabilidades extremas de 0 o 1. Esto podría indicar que el modelo podría estar sobreajustando o enfrentando dificultades para encontrar un equilibrio estable, lo que debe tenerse en cuenta al evaluar su estabilidad y generalización.

3.2.5. Regresión Logística

Este algoritmo es un modelo de clasificación que predice la probabilidad de que una observación pertenzca a una clase o no.



model_logit <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "glm",       # Regresión Logística
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_logit)
Generalized Linear Model 

569 samples
 30 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 456, 455, 454, 455, 456 
Resampling results:

  ROC        Sens       Spec     
  0.9551611  0.9438185  0.9483942
# Extraer la importancia de las variables
importance_logit <- varImp(model_logit, scale = FALSE)
importance_logit_df <- importance_logit$importance
importance_logit_df$variable <- rownames(importance_logit_df)

El último modelo considerado es el Modelo de regresión Logística. Este modelo, a pesar de ser sencillo en su estructura, mostró un rendimiento respetable. Su curva ROC alcanzó un valor de 0.9552, lo cual es inferior a los de Random Forest y SVM, pero sigue siendo adecuado para tareas de clasificación. La sensibilidad de 0.9438 indica que el modelo tiene una buena capacidad para identificar las observaciones positivas, mientras que la especificidad de 0.9484 es ligeramente mejor que la sensibilidad, lo que sugiere que el modelo tiene un desempeño ligeramente mejor para detectar las observaciones negativas en comparación con las positivas. Aunque el modelo de regresión Logística es funcional, su rendimiento en términos de la curva ROC es algo inferior en comparación con los modelos más complejos como SVM y Random Forest.

3.2.6. Red Neuronal

Las redes neuronales son un modelo de aprendizaje profundo que imita el funcionamiento del cerebro humano. Están compuestas por capas de neuronas interconectadas que procesan la información y aprenden a partir de los datos. Puede ser interesante evaluar el rendimiento de una red neuronal en comparación con los modelos tradicionales de aprendizaje supervisado.

# Entrenar una red neuronal para clasificación binaria
model_nn <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "nnet",      # Red Neuronal
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC",       # Evaluar utilizando AUC (Área bajo la curva ROC)
  verbose = FALSE       # Suprimir los detalles del entrenamiento
)
# weights:  33
initial  value 303.814281 
final  value 300.690175 
converged
# weights:  97
initial  value 332.883486 
final  value 300.690175 
converged
# weights:  161
initial  value 308.255102 
final  value 300.690175 
converged
# weights:  33
initial  value 302.734861 
iter  10 value 189.066186
iter  20 value 137.311100
iter  30 value 127.310716
iter  40 value 114.353480
iter  50 value 96.337294
iter  60 value 89.127384
iter  70 value 55.415851
iter  80 value 49.988507
iter  90 value 49.948972
final  value 49.948962 
converged
# weights:  97
initial  value 369.000472 
iter  10 value 300.149819
iter  20 value 271.874065
iter  30 value 194.536429
iter  40 value 71.896285
iter  50 value 55.416886
iter  60 value 48.195235
iter  70 value 44.718847
iter  80 value 44.377198
iter  90 value 43.400719
iter 100 value 43.261379
final  value 43.261379 
stopped after 100 iterations
# weights:  161
initial  value 371.702176 
iter  10 value 300.407960
iter  20 value 283.233540
iter  30 value 281.686688
iter  40 value 169.006335
iter  50 value 143.677405
iter  60 value 91.320774
iter  70 value 60.281917
iter  80 value 57.825375
iter  90 value 48.195381
iter 100 value 46.664513
final  value 46.664513 
stopped after 100 iterations
# weights:  33
initial  value 301.025353 
final  value 300.690568 
converged
# weights:  97
initial  value 398.789756 
final  value 300.691541 
converged
# weights:  161
initial  value 298.975566 
iter  10 value 142.154310
iter  20 value 132.863731
iter  30 value 128.379619
iter  40 value 127.085301
iter  50 value 109.763520
iter  60 value 92.749228
iter  70 value 88.808364
iter  80 value 88.715249
iter  90 value 88.707655
iter 100 value 88.705274
final  value 88.705274 
stopped after 100 iterations
# weights:  33
initial  value 474.173669 
final  value 301.157329 
converged
# weights:  97
initial  value 381.634104 
final  value 301.157329 
converged
# weights:  161
initial  value 411.174399 
final  value 301.157329 
converged
# weights:  33
initial  value 302.465538 
iter  10 value 300.620159
iter  20 value 135.634013
iter  30 value 134.891376
iter  40 value 131.830958
iter  50 value 85.884946
iter  60 value 51.480048
iter  70 value 48.152861
iter  80 value 48.126602
iter  80 value 48.126602
iter  80 value 48.126602
final  value 48.126602 
converged
# weights:  97
initial  value 322.064272 
iter  10 value 301.166261
final  value 301.164489 
converged
# weights:  161
initial  value 294.398144 
iter  10 value 148.087760
iter  20 value 126.970735
iter  30 value 96.488828
iter  40 value 82.856567
iter  50 value 51.143739
iter  60 value 47.473604
iter  70 value 47.387386
iter  80 value 47.367148
iter  90 value 47.366048
iter 100 value 47.365971
final  value 47.365971 
stopped after 100 iterations
# weights:  33
initial  value 301.611611 
final  value 301.157883 
converged
# weights:  97
initial  value 317.261371 
final  value 301.158910 
converged
# weights:  161
initial  value 348.492462 
final  value 301.160233 
converged
# weights:  33
initial  value 302.784965 
final  value 300.168785 
converged
# weights:  97
initial  value 346.138557 
final  value 300.168785 
converged
# weights:  161
initial  value 295.710936 
iter  10 value 140.900991
iter  20 value 140.832506
final  value 140.832256 
converged
# weights:  33
initial  value 356.082580 
iter  10 value 299.720359
iter  20 value 282.464610
iter  30 value 241.856109
iter  40 value 169.312687
iter  50 value 128.319123
iter  60 value 114.956939
iter  70 value 77.265858
iter  80 value 44.088735
iter  90 value 42.370321
final  value 42.368380 
converged
# weights:  97
initial  value 339.431288 
iter  10 value 302.474840
iter  20 value 300.160751
iter  30 value 221.394113
iter  40 value 186.694153
iter  50 value 139.059111
iter  60 value 130.594711
iter  70 value 120.198283
iter  80 value 117.453407
iter  90 value 104.935137
iter 100 value 87.983970
final  value 87.983970 
stopped after 100 iterations
# weights:  161
initial  value 312.370577 
iter  10 value 300.192110
iter  20 value 288.851940
iter  30 value 276.623297
iter  40 value 152.276017
iter  50 value 85.131196
iter  60 value 66.276304
iter  70 value 61.376961
iter  80 value 59.137040
iter  90 value 50.052960
iter 100 value 43.016825
final  value 43.016825 
stopped after 100 iterations
# weights:  33
initial  value 306.665821 
final  value 300.169382 
converged
# weights:  97
initial  value 309.550813 
final  value 300.170480 
converged
# weights:  161
initial  value 321.142986 
final  value 300.171909 
converged
# weights:  33
initial  value 317.209948 
iter  10 value 298.717230
iter  20 value 298.713771
iter  20 value 298.713770
iter  20 value 298.713770
final  value 298.713770 
converged
# weights:  97
initial  value 353.527804 
final  value 300.690175 
converged
# weights:  161
initial  value 329.364114 
final  value 300.690175 
converged
# weights:  33
initial  value 340.688073 
iter  10 value 300.716085
final  value 300.703662 
converged
# weights:  97
initial  value 394.691157 
iter  10 value 301.503222
iter  20 value 176.471348
iter  30 value 151.014001
iter  40 value 119.957718
iter  50 value 58.748747
iter  60 value 52.408730
iter  70 value 46.634171
iter  80 value 38.432381
iter  90 value 37.813048
iter 100 value 36.203960
final  value 36.203960 
stopped after 100 iterations
# weights:  161
initial  value 371.593718 
iter  10 value 300.767315
iter  20 value 300.023429
iter  30 value 144.438918
iter  40 value 122.068098
iter  50 value 109.795917
iter  60 value 93.264520
iter  70 value 73.334182
iter  80 value 47.413917
iter  90 value 39.659239
iter 100 value 37.575950
final  value 37.575950 
stopped after 100 iterations
# weights:  33
initial  value 396.203660 
final  value 300.690839 
converged
# weights:  97
initial  value 326.191022 
final  value 300.691633 
converged
# weights:  161
initial  value 364.936450 
final  value 300.693315 
converged
# weights:  33
initial  value 302.331579 
final  value 300.168785 
converged
# weights:  97
initial  value 335.928277 
final  value 300.168785 
converged
# weights:  161
initial  value 351.686263 
iter  10 value 171.986642
iter  20 value 138.919857
iter  30 value 128.116739
iter  40 value 125.815588
iter  50 value 125.758218
iter  60 value 125.757320
final  value 125.757163 
converged
# weights:  33
initial  value 313.088220 
iter  10 value 284.476678
iter  20 value 277.953834
iter  30 value 245.057407
iter  40 value 162.406367
iter  50 value 121.118930
iter  60 value 99.601719
iter  70 value 59.957862
iter  80 value 50.041138
iter  90 value 49.832989
final  value 49.832916 
converged
# weights:  97
initial  value 302.807845 
iter  10 value 194.680464
iter  20 value 130.297985
iter  30 value 126.831188
iter  40 value 88.427035
iter  50 value 76.929586
iter  60 value 64.614902
iter  70 value 44.964746
iter  80 value 40.585917
iter  90 value 39.392312
iter 100 value 38.904334
final  value 38.904334 
stopped after 100 iterations
# weights:  161
initial  value 399.929155 
iter  10 value 300.371559
iter  20 value 299.501664
iter  30 value 167.055869
iter  40 value 121.436633
iter  50 value 111.993335
iter  60 value 102.211001
iter  70 value 82.730433
iter  80 value 57.320872
iter  90 value 48.597546
iter 100 value 48.450333
final  value 48.450333 
stopped after 100 iterations
# weights:  33
initial  value 300.312201 
final  value 300.169281 
converged
# weights:  97
initial  value 351.982943 
final  value 300.170451 
converged
# weights:  161
initial  value 299.925184 
iter  10 value 298.193960
final  value 298.192880 
converged
# weights:  161
initial  value 393.428947 
iter  10 value 294.613932
iter  20 value 183.973183
iter  30 value 164.915062
iter  40 value 126.838995
iter  50 value 116.174982
iter  60 value 101.356908
iter  70 value 90.133489
iter  80 value 79.475525
iter  90 value 58.949183
iter 100 value 53.574093
final  value 53.574093 
stopped after 100 iterations

# Imprimir los resultados del modelo
print(model_nn$results)


# Extraer la importancia de las variables
importance_nn <- varImp(model_nn, scale = FALSE)
importance_nn_df <- importance_nn$importance
importance_nn_df$variable <- rownames(importance_nn_df)

El modelo de Red Neuronal, tiene un rendimiento muy similar al de Random Forest y SVM, con una curva ROC de 0.9922, una sensibilidad de 0.9551 y una especificidad de 0.9431. Esto indica que la red neuronal es capaz de discriminar eficazmente entre las clases ‘Beningno’ y ‘Maligno’, con una alta capacidad para detectar las observaciones positivas y negativas. Aunque la red neuronal es un modelo más complejo y requiere más tiempo de entrenamiento, su rendimiento es comparable al de los modelos más tradicionales, lo que sugiere que puede ser una opción viable para la clasificación de tumores de mama.

3.2.7 Evaluación de los modelos

Esta sección se dedica a evaluar el rendimiento de los modelos utilizados en el análisis. La comparación de modelos se realiza utilizando técnicas de validación cruzada, como K-fold, para obtener una visión robusta del desempeño de cada uno. Los resultados obtenidos de estos modelos se comparan a través del resumen de resampling y se visualizan mediante el diagrama bwplot para identificar cuál modelo ofrece mejor precisión y generalización en las predicciones.

resamples <- resamples(list(cart = model_cart, rf = model_rf, svm = model_svm, logit = model_logit, nn = model_nn))

summary(resamples)

Call:
summary.resamples(object = resamples)

Models: cart, rf, svm, logit, nn 
Number of resamples: 5 

ROC 
           Min.   1st Qu.    Median      Mean   3rd Qu.      Max. NA's
cart  0.9086184 0.9107435 0.9111335 0.9361931 0.9622093 0.9882606    0
rf    0.9718310 0.9909061 0.9946345 0.9907537 0.9963970 1.0000000    0
svm   0.9871032 0.9929577 0.9957419 0.9948302 0.9989940 0.9993540    0
logit 0.9033737 0.9495701 0.9639504 0.9551611 0.9718310 0.9870801    0
nn    0.9829676 0.9930556 0.9937169 0.9922245 0.9956405 0.9957419    0

Sens 
           Min.   1st Qu.    Median      Mean   3rd Qu.      Max. NA's
cart  0.9014085 0.9305556 0.9436620 0.9383412 0.9577465 0.9583333    0
rf    0.9583333 0.9859155 0.9859155 0.9804382 0.9859155 0.9861111    0
svm   0.9583333 0.9718310 0.9718310 0.9748044 0.9859155 0.9861111    0
logit 0.9154930 0.9295775 0.9295775 0.9438185 0.9722222 0.9722222    0
nn    0.9014085 0.9436620 0.9583333 0.9550861 0.9859155 0.9861111    0

Spec 
           Min.   1st Qu.    Median      Mean   3rd Qu.      Max. NA's
cart  0.8333333 0.8571429 0.9069767 0.8960133 0.9302326 0.9523810    0
rf    0.8571429 0.9047619 0.9285714 0.9241417 0.9302326 1.0000000    0
svm   0.9523810 0.9534884 0.9761905 0.9669989 0.9761905 0.9767442    0
logit 0.8837209 0.9047619 0.9534884 0.9483942 1.0000000 1.0000000    0
nn    0.9047619 0.9285714 0.9523810 0.9431894 0.9534884 0.9767442    0
bwplot(resamples)

Se observa que el mejor modelo es el “SVM” ya que tiene el valor más alto de AUC-ROC, además de tener una alta sensibilidad y especificidad. El modelo “Random Forest” también tiene un buen rendimiento, pero la especificidad no es tan alta probablemente por el outlier que se observa en el diagrama bwplot.

Redes neuronales tambien cuenta con buen desempeño aunque con menor sensibilidad y especificidad que los modelos anteriores. Logit y CART presentan un rendimiento inferior en comparación con los otros modelos.

3.3. Experimentación de modelos supervisados con reducción de variables

En esta sección, se experimentará con la reducción de variables para evaluar si es posible mejorar el rendimiento de los modelos de aprendizaje supervisado. La reducción de variables implica seleccionar un subconjunto de características más relevantes y eliminar las menos importantes, lo que puede simplificar el modelo y mejorar su capacidad predictiva.

Se procederá a realizar un estudio de la importancia de las variables para identificar cuáles son las características más relevantes en la predicción del diagnóstico de cáncer de mama y así poder seleccionar las más importantes para mejorar el rendimiento de los modelos.

3.3.1. Estudio de la Importancia de las Variables

El estudio de la importancia de variables nos permite identificar cuáles son las características que más influyen en las predicciones realizadas.

El objetivo del estudio de importancia de variables es eliminar aquellas que consistentemente tienen baja importancia en todos los modelos:

1- Obtener la importancia de variables de cada modelo. 2- Normalizar la importancia para compararla entre modelos. 3- Calcular una métrica consolidada de importancia promedio. 4- Identificar las variables con menor impacto en todos los modelos.

3.3.1.1. Árbol de Decisión (CART)

En los árboles de decisión, la importancia de variables se calcula en función de las ganancias de reducción de impureza, por ejemplo, la reducción de la entropía o del índice Gini en los nodos donde la variables es utilizada para dividr los datos.

plot(importance_cart, main = "Importancia de Variables - CART")

Las variables con mayor importancia en el modelo CART son “concave.points_worst”, “concave.points_mean”, “radius_worst”, “area_worst” y “perimeter_worst”. Estas variables son las más influyentes en la predicción del diagnóstico de cáncer de mama, lo que sugiere que las características relacionadas con los puntos cóncavos, el radio, el área y el perímetro del tumor son críticas para distinguir entre tumores malignos y benignos.

3.3.1.2. Random Forest

En Random Forest la importancia se calcula mediante dos enfoques comunes:

  • Importancia basada en permutación: Evalúa cómo cambia la precisión del modelo al permutar aleatoriamente los valores de una variable.
  • Reducción promedio de la impureza: Calcula cuánto contribuye una variable a la reducción de impureza a través de todos los árboles del bosque.
plot(importance_rf, main = "Importancia de Variables - Random Forest")

En este caso las variables más importantes son similares al modelo anterior.

3.3.1.3. Support Vector Machine (SVM)

El calculo de la importancia en SVM no es tan directo, ya que este modelo no se basa en una estructura jerárquica o en una gregación de árboles. Podemos estimar la importancia de las variables mediante análisis post-hoc, como la evaluación de los coeficientes en el espacio formado por el núcleo radial.

plot(importance_svm, main = "Importancia de Variables- SVM")

Al igual que en los modelos anteriores, parece que las variables de peor y media de perimetro radio area y concavidad son las más importantes en la predicción del diagnóstico de cáncer de mama.

3.3.1.4. Regresión Logística

En regresión logística, la importancia de variables se puede analizar mediante los coeficientes estimados del modelo. Estos coeficientes indican la magnitud y la dirección del efecto de cada variable en la probabilidad de que un tumor sea maligno.

plot(importance_logit, main = "Importancia de Variables - Regresión Logística")

En este caso la simetría toma un papel importante en la predicción del diagnóstico de cáncer de mama.

3.3.1.5 Red Neuronal

En las redes neuronales, la importancia de las variables puede ser más difícil de interpretar debido a la complejidad del modelo. Sin embargo, es posible analizar la contribución de cada variable a la salida de la red mediante técnicas de backpropagation y análisis de sensibilidad.

plot(importance_nn, main = "Importancia de Variables - Red Neuronal")

Al igual que en los modelos anteriores, las variables relacionadas con el tamaño y la forma del tumor, como el radio, el área y el perímetro, parecen ser las más influyentes en la predicción del diagnóstico de cáncer de mama.

3.3.2 Normalización de Variables

Para normalizar la importancia y poder compararla entre modelos, se debe calcular la importancia relativa de cada variable en términos de contribución a la predicción del modelo. Esto permite estandarizar las mediciones y hacerlas comparables, independientemente del modelo o del algoritmo usado. Luego, se calcula una métrica consolidada que represente la importancia promedio de las variables en todos los modelos. Este valor consolidado se obtiene al promediar las importancias individuales de cada variable entre los diferentes modelos. Por último, se identifican las variables con menor impacto en todos los modelos al analizar aquellas que tienen una importancia significativamente baja en comparación con otras.

# Consolidar importancia de variables
importance_combined <- merge(
  merge(importance_cart_df, importance_rf_df, by = "variable", suffixes = c("_cart", "_rf")),
  merge(importance_svm_df, importance_logit_df, by = "variable", suffixes = c("_svm", "_logit")),
  
  by = "variable"
)

importance_combined <- merge(importance_combined, importance_nn_df, by = "variable")

# Promedio de importancia
importance_combined$mean_importance <- rowMeans(importance_combined[, -1], na.rm = TRUE)

# Seleccionar las menos importantes (por debajo de un umbral, por ejemplo, el percentil 90)
threshold <- quantile(importance_combined$mean_importance, 0.9)
least_important_vars <- importance_combined$variable[importance_combined$mean_importance <= threshold]

# Eliminar estas variables del dataset original
data_reduced <- data[, !(names(data) %in% least_important_vars)]

# Guardar el dataset reducido
write.csv(data_reduced, "data_reduced.csv", row.names = FALSE)

A continuación, se presentan las variables menos importantes en los modelos evaluados y el dataset reducido.

print("Variables menos importantes:")
[1] "Variables menos importantes:"
print(least_important_vars)
 [1] "area_mean"               "area_se"                
 [3] "compactness_mean"        "compactness_se"         
 [5] "compactness_worst"       "concave.points_mean"    
 [7] "concave.points_se"       "concavity_mean"         
 [9] "concavity_se"            "concavity_worst"        
[11] "fractal_dimension_mean"  "fractal_dimension_se"   
[13] "fractal_dimension_worst" "perimeter_mean"         
[15] "perimeter_se"            "radius_mean"            
[17] "radius_se"               "radius_worst"           
[19] "smoothness_mean"         "smoothness_se"          
[21] "smoothness_worst"        "symmetry_mean"          
[23] "symmetry_se"             "symmetry_worst"         
[25] "texture_mean"            "texture_se"             
[27] "texture_worst"          
print("")
[1] ""
print("Dataset reducido:")
[1] "Dataset reducido:"
print(dim(data_reduced))
[1] 569   4

Como se puede observar, las variables menos importantes en los modelos evaluados son “symmetry_se”, “fractal_dimension_se”, “texture_se”, “smoothness_se” y “fractal_dimension_mean”. Estas variables tienen una baja contribución a la predicción del diagnóstico en comparación con otras características más relevantes, como el tamaño y la forma del tumor. El dataset reducido contiene 3 variables (“perimeter_worst”,“area_worst”,“concave.points_worst”)

3.3.3. Entrenamiento de Modelos con Dataset Reducido

El siguiente paso será repetir el análisis supervisado esta vez usando el dataset reducido en el que no aparecen las columnas “menos importantes”. De esta forma se analiza si los resultados mejorar, empeoran o no afectan con el estudio de importancia de varianles:

Árbol de Decisión (CART)

# Árbol de Decisión utilizando K-fold cross-validation
model_cart_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "rpart",     # Árbol de decisión (CART)
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_cart_reduced)
CART 

569 samples
  3 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 455, 454, 456, 456, 455 
Resampling results across tuning parameters:

  cp           ROC        Sens       Spec     
  0.007075472  0.9385738  0.9217527  0.9009967
  0.084905660  0.8891366  0.9414710  0.8353267
  0.787735849  0.7169079  0.9471049  0.4867110

ROC was used to select the optimal model using the largest value.
The final value used for the model was cp = 0.007075472.

Random Forest

model_rf_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "rf",        # Random Forest
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)
note: only 2 unique complexity parameters in default grid. Truncating the grid to 2 .
# Ver el resumen del modelo entrenado
print(model_rf_reduced)
Random Forest 

569 samples
  3 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 454, 456, 455, 456, 455 
Resampling results across tuning parameters:

  mtry  ROC        Sens       Spec     
  2     0.9802611  0.9524257  0.9059801
  3     0.9809145  0.9580986  0.9059801

ROC was used to select the optimal model using the largest value.
The final value used for the model was mtry = 3.

Support Vector Machine (SVM)


model_svm_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "svmRadial",  # Support Vector Machine con kernel radial
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_svm_reduced)
Support Vector Machines with Radial Basis Function Kernel 

569 samples
  3 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 455, 455, 456, 455, 455 
Resampling results across tuning parameters:

  C     ROC        Sens       Spec     
  0.25  0.9838308  0.9663146  0.9148394
  0.50  0.9766560  0.9719092  0.9100775
  1.00  0.9718964  0.9663146  0.9194906

Tuning parameter 'sigma' was held constant at a value of 3.341819
ROC was used to select the optimal model using the largest value.
The final values used for the model were sigma = 3.341819 and C = 0.25.

Regresión Logística

model_logit_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "glm",       # Regresión Logística
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)
Aviso: glm.fit: fitted probabilities numerically 0 or 1 occurredAviso: glm.fit: fitted probabilities numerically 0 or 1 occurredAviso: glm.fit: fitted probabilities numerically 0 or 1 occurredAviso: glm.fit: fitted probabilities numerically 0 or 1 occurredAviso: glm.fit: fitted probabilities numerically 0 or 1 occurredAviso: glm.fit: fitted probabilities numerically 0 or 1 occurred
# Ver el resumen del modelo entrenado
print(model_logit_reduced)
Generalized Linear Model 

569 samples
  3 predictor
  2 classes: 'B', 'M' 

No pre-processing
Resampling: Cross-Validated (5 fold) 
Summary of sample sizes: 454, 456, 456, 454, 456 
Resampling results:

  ROC        Sens       Spec     
  0.9877782  0.9719484  0.9243632

Red Neuronal

# Entrenar una red neuronal para clasificación binaria
model_nn_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "nnet",      # Red Neuronal
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC",       # Evaluar utilizando AUC (Área bajo la curva ROC)
  verbose = FALSE       # Suprimir los detalles del entrenamiento
)
# weights:  6
initial  value 400.519235 
final  value 300.690175 
converged
# weights:  16
initial  value 356.268672 
final  value 300.690175 
converged
# weights:  26
initial  value 412.034781 
final  value 300.690175 
converged
# weights:  6
initial  value 314.005643 
iter  10 value 300.703228
iter  20 value 221.081004
iter  30 value 136.929352
iter  40 value 99.811951
iter  50 value 87.649399
final  value 87.577932 
converged
# weights:  16
initial  value 301.285795 
iter  10 value 300.686148
iter  20 value 136.607519
iter  30 value 124.817825
iter  40 value 103.150806
iter  50 value 84.234538
iter  60 value 83.465634
final  value 83.463846 
converged
# weights:  26
initial  value 301.293663 
iter  10 value 300.003317
iter  20 value 282.157619
iter  30 value 165.795734
iter  40 value 152.651474
iter  50 value 116.740898
iter  60 value 115.577534
iter  70 value 110.725993
iter  80 value 94.332311
iter  90 value 84.381715
iter 100 value 83.409259
final  value 83.409259 
stopped after 100 iterations
# weights:  6
initial  value 305.621908 
final  value 300.690241 
converged
# weights:  16
initial  value 361.486455 
final  value 300.690418 
converged
# weights:  26
initial  value 311.340217 
iter  10 value 300.690593
final  value 300.690501 
converged
# weights:  6
initial  value 360.679547 
final  value 300.168785 
converged
# weights:  16
initial  value 374.010669 
final  value 300.168785 
converged
# weights:  26
initial  value 390.782769 
final  value 300.168785 
converged
# weights:  6
initial  value 301.240052 
iter  10 value 299.822928
iter  20 value 187.499475
iter  30 value 172.149910
iter  40 value 107.382718
iter  50 value 94.617928
final  value 94.617268 
converged
# weights:  16
initial  value 319.505594 
iter  10 value 288.604390
iter  20 value 150.756314
iter  30 value 134.246082
iter  40 value 113.855061
iter  50 value 96.094488
iter  60 value 92.126186
iter  70 value 91.259665
final  value 91.245888 
converged
# weights:  26
initial  value 313.373077 
iter  10 value 299.691341
iter  20 value 217.800548
iter  30 value 151.405872
iter  40 value 134.539543
iter  50 value 100.697043
iter  60 value 96.114428
iter  70 value 92.471003
iter  80 value 90.786420
iter  90 value 90.131351
iter 100 value 89.239245
final  value 89.239245 
stopped after 100 iterations
# weights:  6
initial  value 319.084093 
final  value 300.168907 
converged
# weights:  16
initial  value 372.825090 
final  value 300.169079 
converged
# weights:  26
initial  value 309.528406 
final  value 300.169207 
converged
# weights:  6
initial  value 307.204665 
final  value 301.157329 
converged
# weights:  16
initial  value 309.616908 
final  value 301.157329 
converged
# weights:  26
initial  value 364.930574 
final  value 301.157329 
converged
# weights:  6
initial  value 301.274673 
iter  10 value 301.146206
iter  20 value 207.091691
iter  30 value 153.244440
iter  40 value 136.295694
iter  50 value 87.875298
final  value 87.746192 
converged
# weights:  16
initial  value 296.586270 
iter  10 value 164.260314
iter  20 value 133.780561
iter  30 value 115.681682
iter  40 value 86.678854
iter  50 value 86.216681
iter  60 value 86.134471
iter  70 value 86.127123
iter  80 value 86.125811
iter  90 value 86.118695
final  value 86.118684 
converged
# weights:  26
initial  value 315.152129 
iter  10 value 196.444092
iter  20 value 121.548073
iter  30 value 113.891184
iter  40 value 92.099462
iter  50 value 86.983062
iter  60 value 85.461936
iter  70 value 85.396616
iter  80 value 83.973228
iter  90 value 83.599945
iter 100 value 82.922424
final  value 82.922424 
stopped after 100 iterations
# weights:  6
initial  value 317.234355 
final  value 301.157445 
converged
# weights:  16
initial  value 395.266412 
final  value 301.157516 
converged
# weights:  26
initial  value 311.904315 
final  value 301.157595 
converged
# weights:  6
initial  value 306.388596 
final  value 300.690175 
converged
# weights:  16
initial  value 312.001573 
final  value 300.690175 
converged
# weights:  26
initial  value 400.570212 
final  value 300.690175 
converged
# weights:  6
initial  value 421.853792 
iter  10 value 300.704939
final  value 300.703858 
converged
# weights:  16
initial  value 334.824475 
iter  10 value 300.697741
final  value 300.697453 
converged
# weights:  26
initial  value 314.967856 
iter  10 value 305.265361
iter  20 value 300.816041
iter  30 value 300.695687
iter  30 value 300.695685
final  value 300.695573 
converged
# weights:  6
initial  value 308.355351 
final  value 300.690305 
converged
# weights:  16
initial  value 313.918031 
final  value 300.690419 
converged
# weights:  26
initial  value 373.835253 
final  value 300.690575 
converged
# weights:  6
initial  value 359.377126 
final  value 300.168785 
converged
# weights:  16
initial  value 302.359467 
final  value 300.168785 
converged
# weights:  26
initial  value 338.554358 
final  value 300.168785 
converged
# weights:  6
initial  value 299.237821 
iter  10 value 157.377690
iter  20 value 147.166520
iter  30 value 119.490462
iter  40 value 91.205606
final  value 91.203282 
converged
# weights:  16
initial  value 375.801693 
iter  10 value 298.830198
iter  20 value 162.443995
iter  30 value 147.097909
iter  40 value 137.969095
iter  50 value 101.924214
iter  60 value 88.555091
iter  70 value 88.420617
iter  80 value 88.310056
final  value 88.309163 
converged
# weights:  26
initial  value 431.488216 
iter  10 value 191.039484
iter  20 value 138.836570
iter  30 value 99.914254
iter  40 value 87.524878
iter  50 value 86.725075
iter  60 value 86.660641
iter  70 value 86.646334
iter  80 value 86.413626
iter  90 value 86.405290
final  value 86.405252 
converged
# weights:  6
initial  value 315.634849 
iter  10 value 149.961203
iter  20 value 148.576875
iter  30 value 133.936820
iter  40 value 76.095308
iter  50 value 57.452457
iter  60 value 57.233319
iter  70 value 57.189360
iter  80 value 57.169342
iter  90 value 57.152084
iter 100 value 57.138115
final  value 57.138115 
stopped after 100 iterations
# weights:  16
initial  value 341.277408 
final  value 300.169070 
converged
# weights:  26
initial  value 310.245251 
final  value 300.169181 
converged
# weights:  6
initial  value 482.433457 
iter  10 value 375.733808
final  value 375.733802 
converged

3.3.4. Comparación de resultados del análisis supervisado: dataset incial vs dataset reducido.

A continuación, se compararán los resultados de los modelos entrenados con el dataset completo y el dataset reducido. Se evaluarán las métricas de rendimiento, como el área bajo la curva ROC (AUC-ROC), la sensibilidad y la especificidad, para determinar si la reducción de variables afecta el rendimiento de los modelos.

# Comparativa entre los modelos
# Lista de los modelos completos y reducidos
modelos_completos <- list(cart = model_cart, rf = model_rf, svm = model_svm, logit = model_logit, nn = model_nn)
modelos_reducidos <- list(cart = model_cart_reduced, rf = model_rf_reduced, svm = model_svm_reduced, logit = model_logit_reduced, nn = model_nn_reduced)

# Inicializamos un data frame vacío para almacenar los resultados
resultados <- data.frame(
  modelo = character(),
  roc_inicial = numeric(),
  sens_inicial = numeric(),
  spec_inicial = numeric(),
  roc_reducido = numeric(),
  sens_reducido = numeric(),
  spec_reducido = numeric(),
  stringsAsFactors = FALSE
)

# Iteramos sobre los modelos completos y reducidos
for (nombre in names(modelos_completos)) {
  # Modelo completo
  modelo_completo <- modelos_completos[[nombre]]
  mejor_completo <- modelo_completo$results[which.max(modelo_completo$results$ROC), c("ROC", "Sens", "Spec")]
  
  # Modelo reducido
  modelo_reducido <- modelos_reducidos[[nombre]]
  mejor_reducido <- modelo_reducido$results[which.max(modelo_reducido$results$ROC), c("ROC", "Sens", "Spec")]
  
  # Agregar al data frame
  resultados <- rbind(resultados, data.frame(
    modelo = nombre,
    roc_inicial = mejor_completo$ROC,
    sens_inicial = mejor_completo$Sens,
    spec_inicial = mejor_completo$Spec,
    roc_reducido = mejor_reducido$ROC,
    sens_reducido = mejor_reducido$Sens,
    spec_reducido = mejor_reducido$Spec,
    stringsAsFactors = FALSE
  ))
}

# Imprimir los resultados
print(resultados)

# Una tabla mostrando el relative change de cada métrica
comparativa <- resultados %>%
  mutate(
    roc_change = (roc_reducido - roc_inicial) / roc_inicial ,
    sens_change = (sens_reducido - sens_inicial) / sens_inicial,
    spec_change = (spec_reducido - spec_inicial) / spec_inicial
  ) %>%
  select(modelo, roc_change, sens_change, spec_change)

flextable(comparativa)

modelo

roc_change

sens_change

spec_change

cart

0.002542985

-0.017678452

0.005561735

rf

-0.009931039

-0.022785315

-0.019652487

svm

-0.011056511

-0.008709263

-0.053939533

logit

0.034148336

0.029804344

-0.025338627

nn

-0.102173134

0.023513026

-0.216977809

NA

Como se puede ver en la tabla, que muestra el cambio relativo en las métricas de rendimiento de los modelos completos y reducidos, la reducción de variables no afecta significativamente el rendimiento de los modelos. En general, los cambios en el área bajo la curva ROC (AUC-ROC), la sensibilidad y la especificidad son mínimos, lo que sugiere que las variables eliminadas no tenían un impacto significativo en la capacidad predictiva de los modelos. Esto indica que el dataset reducido sigue siendo capaz de capturar los patrones relevantes en los datos y de realizar predicciones precisas sobre el diagnóstico de cáncer de mama.

Como los modelos no mejoran ni empeoran significativamente con la reducción de variables, se puede concluir que el dataset original contiene información redundante o poco relevante para la predicción del diagnóstico. Además, ahora es un proceso más eficiente y menos costoso computacionalmente, ya que se trabaja con un número menor de variables.

Las 3 variables más importantes para predecir el cáncer de mama son: “perimeter_worst”,“area_worst”,“concave.points_worst”. Ya que se consigue un resultado equivalente con un menor número de variables, los modelos son más eficientes y menos propensos al sobreajuste.

3.4. Análisis No Supervisado.

El análisis no supervisado tiene como objetivo identificar patrones ocultos o estructuras presentes en los datos sin requerir etiquetas. Para este propósito, se emplean técnicas de clustering y reducción de dimensionalidad que permiten explorar la información contenida en las características de las células. Estas técnicas facilitan la identificación de grupos de observaciones similares y proporcionan una perspectiva más clara sobre las relaciones entre las variables.

3.4.1. Preparación del Dataset

Previo a la aplicación de técnicas de análisis no supervisado, es fundamental realizar un preprocesamiento adecuado de los datos. El primer paso consiste en eliminar la columna “diagnosis”, ya que dicha variable contiene la etiqueta que se desea predecir y no se utiliza en este tipo de análisis. Posteriormente, se normalizan las características, dado que muchas técnicas, como el clustering, son sensibles a las escalas de las variables. Este proceso asegura que todas las variables tengan la misma influencia en el modelo.

data_UnSupervised <- data %>% select(-diagnosis)
head(data_UnSupervised)
data_UnSupervised$diagnosis
NULL

La normalización asegura que las variables con diferentes unidades de medida no dominen el análisis y evita que el algoritmo de clustering o reducción de dimensionalidad se vea sesgado por la magnitud de las variables. Se utiliza la función preProcess para calcular los parámetros de normalización y con la función predict, se aplican los parámetros calculados previamente al conjunto de datos, generando una nueva versión normalizada de las características

# Normalizar los datos 
preprocess_params <- preProcess(data_UnSupervised[, -ncol(data_UnSupervised)], method = c("center", "scale"))
data_normalized <- predict(preprocess_params, data_UnSupervised[, -ncol(data_UnSupervised)])

El primer método de análisis no supervisado que se emplea es el clustering, el cual tiene como propósito agrupar las observaciones en función de sus similitudes.

3.4.2. Clustering: Determinación del Número Óptimo de Clusters

En el análisis de clustering, es fundamental determinar el número óptimo de grupos o clusters, ya que este parámetro impacta directamente en la calidad de la segmentación. Existen diversas metodologías para identificar este valor, las cuales se basan en criterios estadísticos y geométricos que evalúan la estructura de los datos y la cohesión de los clusters formados.

El primer paso para aplicar técnicas de clustering consiste en identificar el número adecuado de clusters. Dos métodos comunes para este propósito son:

Método del codo: Este enfoque evalúa la variación explicada en función del número de clusters. Se identifica el “codo” en la gráfica, que corresponde al punto donde la mejora en la varianza explicada se estabiliza, indicando que añadir más clusters no produce beneficios significativos.

Índice de Silhouette: Este índice mide la similitud de cada punto con su propio cluster en comparación con otros clusters. Valores cercanos a +1 sugieren que los puntos están correctamente agrupados, mientras que valores cercanos a -1 indican posibles errores en la asignación de clusters.

# Método del codo
wss <- (nrow(data_normalized) - 1) * sum(apply(data_normalized, 2, var))
for (i in 2:15) wss[i] <- sum(kmeans(data_normalized, centers = i)$withinss)

plot(1:15, wss, type = "b", xlab = "Número de Clusters", ylab = "Suma de Cuadrados Internos")


# Índice silhouette

silhouette_scores <- numeric()
for (i in 2:15) {
  km <- kmeans(data_normalized, centers = i)
  silhouette_scores[i] <- mean(silhouette(km$cluster, dist(data_normalized))[, 3])
}
plot(2:15, silhouette_scores[-1], type = "b", xlab = "Número de Clusters", ylab = "Puntaje de Silhouette")

Puede verse de forma más clara en el puntaje de Silhouette que k será 2.

El siguiente método de análisis no supervisado que se utiliza es el algoritmo K-means, el cual permite agrupar los datos en un número específico de clusters previamente determinado.

3.4.3. K-Means

El algoritmo K-means es una técnica de clustering que organiza los datos en K clusters, con el objetivo de minimizar la varianza dentro de cada grupo.

set.seed(123)

optimal_clusters = 2

kmeans_model <- kmeans(data_normalized, centers = optimal_clusters, nstart = 25)

# Agregar etiquetas de cluster al dataset original
data$cluster <- kmeans_model$cluster

# Mostrar los clusters de diferentes formas:

# Tabla de frecuencias
table(data$cluster)

  1   2 
385 184 
# Resumen de los datos agrupados por cluster
aggregate(data[, -ncol(data)], by = list(cluster = data$cluster), FUN = mean)
Aviso: argument is not numeric or logical: returning NAAviso: argument is not numeric or logical: returning NA
table(data$diagnosis, data$cluster)
   
      1   2
  B 348   9
  M  37 175
 1   2

B 348 9 M 37 175 Podemos observar que se han creado dos clusters, con 385 y 184 observaciones respectivamente. Además, se puede ver claramente que el cluster 1 contiene principalmente observaciones de la clase “B” (benigno), mientras que el cluster 2 contiene principalmente observaciones de la clase “M” (maligno). Esto sugiere que el algoritmo K-means ha sido capaz de agrupar las observaciones en función de su similitud, lo que facilita la identificación de patrones en los datos.

3.4.4. Clustering jerárquico

El clustering jerárquico es una técnica que organiza los datos en una estructura de árbol, donde los clusters se forman de manera recursiva mediante la unión o división de grupos. Este enfoque permite visualizar la estructura de los datos en diferentes niveles de granularidad y facilita la interpretación de las relaciones entre las observaciones.

# Calcular distancias y realizar clustering jerárquico
hierarchical_model <- hclust(dist(data_normalized), method = "ward.D2")

# Visualizar el dendrograma
plot(hierarchical_model, main = "Dendrograma", sub = "", xlab = "", cex = 0.6)


# Cortar el dendrograma en el número óptimo de clusters
optimal_clusters <- 2
data$cluster <- cutree(hierarchical_model, k = optimal_clusters)

# Mostrar los clusters de diferentes formas:

# Tabla de frecuencias
table(data$cluster)

  1   2 
233 336 
# Resumen de los datos agrupados por cluster
aggregate(data[, -ncol(data)], by = list(cluster = data$cluster), FUN = mean)
Aviso: argument is not numeric or logical: returning NAAviso: argument is not numeric or logical: returning NA
NA

El dendrograma muestra la estructura jerárquica de los datos, donde las observaciones se agrupan en clusters en función de su similitud. Al cortar el dendrograma en el número óptimo de clusters, se obtiene una partición de los datos en dos grupos, lo que permite identificar las relaciones entre las observaciones y visualizar la estructura subyacente de los datos.

3.4.5. DBSCAN

El algoritmo DBSCAN (Density-Based Spatial Clustering of Applications with Noise) es una técnica de clustering que agrupa los datos en función de la densidad de los puntos. Este enfoque es útil para identificar clusters de formas arbitrarias y detectar outliers en los datos.

En este caso, se ajusta el modelo DBSCAN con un radio máximo de 10 y un mínimo de 2 puntos para formar un cluster. Los puntos que no pertenecen a ningún cluster se consideran ruido.



# Ajustar el modelo DBSCAN
eps <- 10  # Radio máximo para vecinos
minPts <- 2  # Puntos mínimos para formar un cluster
dbscan_model <- dbscan(data_normalized, eps = eps, minPts = minPts)

# Agregar etiquetas de cluster al dataset original
data$cluster <- dbscan_model$cluster

# Mostrar los clusters de diferentes formas:

# Tabla de frecuencias (los valores 0 son ruido)
table(data$cluster)

  0   1   2 
  1 566   2 
# Resumen de los datos agrupados por cluster (excluyendo ruido)
aggregate(data[data$cluster > 0, -ncol(data)], 
          by = list(cluster = data$cluster[data$cluster > 0]), 
          FUN = mean)
Aviso: argument is not numeric or logical: returning NAAviso: argument is not numeric or logical: returning NA

Como se puede observar, el algoritmo DBSCAN identifica 2 clusters y asigna los puntos que no pertenecen a ningún cluster como ruido. Uno de ellos con 566 por lo que no ha realizado una buena agrupación.


# Calcular el coeficiente de silueta para diferentes métodos
silhouette_kmeans <- silhouette(kmeans_model$cluster, dist(data_normalized))
silhouette_hierarchical <- silhouette(cutree(hierarchical_model, k = optimal_clusters), dist(data_normalized))
silhouette_dbscan <- silhouette(dbscan_model$cluster, dist(data_normalized))

# Visualizar los coeficientes
plot(silhouette_kmeans, main = "Silueta - K-Means")

plot(silhouette_hierarchical, main = "Silueta - Clustering Jerárquico")

plot(silhouette_dbscan, main = "Silueta - DBSCAN")

Como resultado de la comparación, el k-means tiene una media de anchura de silueta de 0,35, el clustering jerárquico de 0,29 y el DBSCAN de 0,35. Esto sugiere que los clusters generados por k-means y DBSCAN son más cohesivos y bien definidos en comparación con el clustering jerárquico. El DBSCAN y k-means tienen una mayor cohesión y separación entre los clusters, lo que indica que estos algoritmos son más efectivos para agrupar los datos en función de la similitud entre las observaciones.

El siguiente paso en nuestro análisis no supervisado es aplicar el Análisis de Componentes Principales (PCA). Esta técnica permitirá visualizar la estructura de los datos, así como validar los resultados obtenidos a través del clustering.

3.4.4. Reducción de dimensionalidad con PCA

La dimensionalidad se reducirá transformando las variables originales en componentes principales para identificar la mayor parte de la variabilidad en los datos. Esto facilita la visualización de la estructura subyacente y optimiza la interpretación de los resultados del clustering. PCA simplifica el análisis al reducir la complejidad de los datos. Seleccionamos los componentes principales que expliquen al menos el 95% de la varianza acumulada.

pca_model <- prcomp(data_normalized, scale = TRUE)
explained_variance <- cumsum(pca_model$sdev^2 / sum(pca_model$sdev^2))
num_components <- which(explained_variance >= 0.95)[1]  # Seleccionar componentes que expliquen el 95% de la varianza
data_pca <- as.data.frame(pca_model$x[, 1:num_components])

3.4.5. Reducción de dimensionalidad con t-SNE

t-distributed Stochastic Neighbor Embedding es una técnica no supervisada de reducción no lineal de la dimensionalidad para la exploración de datos y la visualización de datos de alta dimensión:


set.seed(42)
tsne_model <- Rtsne(data_normalized, perplexity = 30, theta = 0.5, dims = 2)
data_tsne <- as.data.frame(tsne_model$Y)
colnames(data_tsne) <- c("Dim1", "Dim2")

3.4.6. Clustering en los Datasets Reducidos

Aplicamos K-means a los datasets generados por PCA y t-SNE, utilizando el mismo número de clusters determinado previamente.

3.4.6.1 K-means con PCA

kmeans_pca <- kmeans(data_pca, centers = optimal_clusters, nstart = 25)
data_pca$cluster <- kmeans_pca$cluster

# Visualización
ggplot(data_pca, aes(x = PC1, y = PC2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clustering K-means (PCA)")

3.4.6.2 K-means con t-SNE

kmeans_tsne <- kmeans(data_tsne, centers = optimal_clusters, nstart = 25)
data_tsne$cluster <- kmeans_tsne$cluster

# Visualización
ggplot(data_tsne, aes(x = Dim1, y = Dim2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clustering K-means (t-SNE)")

3.4.6.3 Comparación de Resultados

# Visualización PCA
ggplot(data_pca, aes(x = PC1, y = PC2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clusters visualizados en espacio PCA")


# Visualización t-SNE
ggplot(data_tsne, aes(x = Dim1, y = Dim2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clusters visualizados en espacio t-SNE")

Se visualizan claramente dos clústeres.

Los clusters están bien definidos y separados espacialmente.

Existe un grado menor de solapamiento entre los clusters, lo que sugiere que las variables originales ofrecen una separación más clara entre las clases en este espacio.

3.4.6.4 Índice Silouhette

Para visualizar mejor la comparación de ello vamos a usar el Silhouette Score, una métrica utilzada para evaluar la calidad de los clusters. El valor oscila entre -1 y 1, donde:

  • Un valor cercano a 1 indica que los puntos están bien agrupados.
  • Un valor cercano a 0 indica que los puntos están en la frontera, es decir, el agrupamiento resulta ambiguo.
  • Un valor cercano a -1 sugiere que los puntos podrían haber sido asignados al cluster incorrecto, es decir, el modelo no logró agruparlos adecuadamente.
# Silhouette para clustering con PCA
silhouette_pca <- mean(silhouette(kmeans_pca$cluster, dist(data_pca))[, 3])

# Silhouette para clustering con t-SNE
silhouette_tsne <- mean(silhouette(kmeans_tsne$cluster, dist(data_tsne))[, 3])

# Comparación
cat("Silhouette Score - Sin reducción:", silhouette_scores[optimal_clusters], "\n")
Silhouette Score - Sin reducción: 0.3482031 
cat("Silhouette Score - PCA:", silhouette_pca, "\n")
Silhouette Score - PCA: 0.3678096 
cat("Silhouette Score - t-SNE:", silhouette_tsne, "\n")
Silhouette Score - t-SNE: 0.5216206 

Silhouette Score - Sin reducción: 0.3482031 Silhouette Score - PCA: 0.3678096 Silhouette Score - t-SNE: 0.5216206 El Silhouette Score sin reducción es 0.34, lo que indica una media calidad de los clusters. Un valor cercano a 0.7 es generalmente considerado como un indicador de que el modelo está logrando una buena separación entre los clusters y que los puntos dentro de cada cluster son bastante similares entre sí. El Silhouette Score después de realizar PCA es 0.36, lo que indica una mejora en la calidad de los clusters en comparación con los datos originales. Esto sugiere que la reducción de dimensionalidad ha permitido una mejor separación de los clusters y una mayor cohesión dentro de cada cluster. El Silhouette Score después de realizar t-SNE es 0.52, lo que indica una mejora significativa en la calidad de los clusters en comparación con los datos originales y con la reducción de dimensionalidad mediante PCA. Esto sugiere que t-SNE ha logrado una mejor separación de los clusters y una mayor cohesión dentro de cada cluster.

El siguiente algoritmo utilizado en el análisis no supervisado es el Apriori para reglas de asociación.

3.4.6. Reglas de asociación con algoritmo Apriori.

Las reglas de asociación se emplean en Data Mining para identificar relaciones entre elementos de un conjunto de datos. Estas relaciones ayudan a encontrar patrones en los datos y están formadas por un antecedente {a} y un consecuente {b}, indicando que {a} -> {b}. Es relevante conocer términos como:

Soporte: Proporción de transacciones que contienen ambos conjuntos de ítems (antecedente y consecuente). Confianza: Indicador de cuán bien predice el antecedente al consecuente.

Algoritmo Apriori

Se utilizará el Algoritmo Apriori para obtener las reglas de asociación, ya que resulta útil para identificar itemsets frecuentes en datos transaccionales, como eventos registrados en un intervalo de tiempo determinado.

Fase 1: Reducción del número de candidatos
  1. Primero, se generan todos los itemsets con un único ítem. Luego, estos itemsets se combinan para formar itemsets con dos elementos, y así sucesivamente. Se seleccionarán únicamente los pares cuyo soporte sea mayor o igual a un umbral minsup, eliminando aquellos que no cumplan con este criterio.

Se instalará el paquete necesario (arules), que es un paquete en R que proporciona funcionalidades para trabajar con reglas de asociación.

  1. Se cargan los datos como transacciones en el formato basket, interpretando cada transacción como un conjunto de ítems (basket). Esto permite manejar tanto datos categóricos (como diagnosis) como continuos (los otros atributos) en la misma transacción.
transacciones <- read.transactions("data_reduced.csv", format = "basket", sep = ",")
Fase 2: Generar reglas Parámetros: soporte mínimo (0.01 -> 1%) y confianza mínima (80%)

En esta fase, se procederá a generar las reglas de asociación utilizando los parámetros de soporte mínimo (0.01 - 1%) y confianza mínima (80%). Estos valores permiten filtrar las reglas que son suficientemente frecuentes y confiables, asegurando que se obtengan relaciones significativas entre los ítems en los datos.

reglasAsociacion <- apriori(transacciones, parameter = list(supp = 0.01, conf = 0.8))
Apriori

Parameter specification:

Algorithmic control:

Absolute minimum support count: 5 

set item appearances ...[0 item(s)] done [0.00s].
set transactions ...[1556 item(s), 570 transaction(s)] done [0.00s].
sorting and recoding items ... [3 item(s)] done [0.00s].
creating transaction tree ... done [0.00s].
checking subsets of size 1 2 done [0.00s].
writing ... [1 rule(s)] done [0.00s].
creating S4 object  ... done [0.00s].

Se filtran las reglas basadas en el lift y la confianza, de modo que solo se consideren aquellas con un lift mayor a 1.5 y una confianza superior al 80%. Un lift > 1.5 indica una fuerte asociación entre los ítems en la regla, mientras que una confianza ≥ 0.8 asegura que la probabilidad de que el consecuente ocurra cuando el antecedente está presente es alta.

filtradas <- subset(reglasAsociacion, lift > 1.5 & confidence >= 0.8)
inspect(filtradas)

#imprimir lhs como variable original
inspect(filtradas, data = TRUE)
NA

Como se puede observar, se ha generado una regla de asociación con un soporte del 2.28%, una confianza del 100% y un lift de 1.59.

No se ha conseguido encontrar reglas de asociación significativas con los datos reducidos. Esto puede deberse a la falta de variabilidad en los datos o a la reducción de variables, lo que limita la capacidad del algoritmo para encontrar relaciones significativas entre los ítems.

3.4.6.1 Visualización de las Reglas de Asociación:

# Instalar el paquete de visualización


# Visualizar las reglas
plot(filtradas, method = "graph")

4. Conclusiones

Hemos llevado a cabo un análisis exhaustivo del conjunto de datos de cáncer de mama, explorando tanto modelos de aprendizaje supervisado como no supervisado y la identificación de reglas de asociación. Los modelos Random Forest y SVM destacaron por su rendimiento excepcional, logrando altas puntuaciones de AUC y sensibilidad. Las variables más importantes para predecir el cáncer de mama fueron “perimeter_worst”, “area_worst” y “concave.points_worst”. La eliminación de variables menos importantes no afectó significativamente el desempeño de los modelos, lo que sugiere que estas variables no aportaban información relevante ni introducían ruido, permitiendo modelos más eficientes y menos propensos al sobreajuste. En el aprendizaje no supervisado, el clustering sin reducción de dimensionalidad proporcionó la mejor separación entre clusters, con un Silhouette Score más alto de 0.68. Sin embargo, la PCA redujo significativamente la calidad del clustering al eliminar componentes clave. t-SNE mostró una calidad intermedia (0.54) en comparación con el espacio original de las variables, destacando su utilidad para la visualización pero limitando la preservación de la estructura del clustering. Este análisis subraya la importancia de emplear diversas técnicas de análisis de datos para obtener una comprensión completa de los patrones y relaciones en los datos de cáncer de mama.

5. Referencias

---
title: "R Notebook"
output:
  html_notebook: default
  word_document: default
  pdf_document: default
  html_document:
    df_print: paged
---

---
title: "FID-G5"
output: html_notebook
---

# Análisis de Datos de Imágenes FNA para el Diagnóstico de Cáncer de Mama

**Autores:** Claudia Heredia Ceballos, Manuel Otero Barbasán, Marta Pineda Gisbert, Javier Fernández Castillo.

**Grupo:** G5.

**Organización**: Universidad de sevilla.

## Resumen

  Este proyecto tiene como objetivo la aplicación de técnicas de aprendizaje supervisado y no supervisado para el diagnóstico de cáncer de mama, utilizando un conjunto de datos que contiene características extraídas de imágenes de aspirado con aguja fina (FNA) de masas mamarias. El conjunto de datos contiene 569 muestras, con 357 benignas y 212 malignas, y 33 características que describen diversas propiedades de los núcleos celulares en las imágenes. En este estudio, se explorarán varios enfoques de clasificación supervisada, como **CART**, **Random Forest**, **SVM**, **Regresión logística** y **redes neuronales** para predecir el diagnóstico de las muestras, además de aplicar técnicas no supervisadas como el **clustering** y la **reducción de dimensionalidad** a través de **PCA** y **T-SNE**. Se espera que el análisis combinado de ambos enfoques permita mejorar la precisión en el diagnóstico y proporcionar una mejor comprensión de los patrones subyacentes en los datos. **Se discutirán los resultados obtenidos y se presentarán conclusiones sobre la efectividad de las técnicas empleadas.**

## 1. Introducción

El diagnóstico temprano y preciso del cáncer de mama es crucial para un tratamiento exitoso. En este estudio, se emplea el conjunto de datos [**Breast Cancer Wisconsin (Diagnostic) Data Set**](https://archive.ics.uci.edu/ml/datasets/Breast+Cancer+Wisconsin+%28Diagnostic%29), que contiene características derivadas de imágenes FNA de células de tejido mamario.

El FNA es una técnica de diagnóstico utilizada para evaluar la naturaleza de las masas mamarias. Durante el procedimiento, se extrae una pequeña cantidad de tejido de la masa y se examina bajo un microscopio para determinar si es benigna o maligna. Las características de las células, como la forma, el tamaño y la textura de los núcleos, pueden proporcionar información valiosa sobre la naturaleza del tumor.

En la **Figura 1** se ilustra el procedimiento de aspiración con aguja fina (FNA), que muestra la inserción de la aguja para extraer las células del tumor. La **Figura 2** presenta una imagen microscópica de las células extraídas, permitiendo observar sus características una vez realizado el FNA.

::: {style="text-align: center;"}
<img src="images/fine-needle-aspiration-using-ultrasound.jpg" alt="Procedimiento de Aspiración con Aguja Fina (FNA)" style="width: 35%;"/> <br> <b>Figura 1:</b><i>Procedimiento FNA</i>
:::

::: {style="text-align: center;"}
<img src="images/cells.jpg" alt="Células extraídas de FNA" style="width: 35%;"/> <br> <b>Figura 2:</b><i> Células extraídas de FNA</i>
:::

El conjunto de datos incluye 33 características, como el radio, la textura, el perímetro y la simetría de los núcleos celulares, las cuales se utilizan para determinar si una muestra es **benigna** o **maligna**.  

Estas características se pueden agrupar en:  

**Relacionadas con el tamaño**  
Incluyen medidas que describen el tamaño y la extensión de los núcleos celulares. El **radio** mide el tamaño de la circunferencia y se reporta como la media (`radius_mean`), el peor caso (`radius_worst`) y la desviación estándar (`radius_se`). El **perímetro** indica la longitud alrededor del núcleo, reportado de manera similar como media (`perimeter_mean`), peor caso (`perimeter_worst`) y desviación estándar (`perimeter_se`). Por último, el **área** representa el espacio ocupado por el núcleo, también dividido en media (`area_mean`), peor caso (`area_worst`) y desviación estándar (`area_se`).  

**Relacionadas con la forma**  
Estas variables describen características geométricas de los núcleos, enfocándose en irregularidades en su borde. La **suavidad** mide la regularidad de los bordes (`smoothness_mean`, `smoothness_worst`, `smoothness_se`), mientras que la **compacidad** evalúa qué tan redonda es la forma del núcleo (`compactness_mean`, `compactness_worst`, `compactness_se`). La **concavidad** mide el grado de hundimiento en los bordes (`concavity_mean`, `concavity_worst`, `concavity_se`) y los **puntos cóncavos** representan el número de puntos específicos donde estos hundimientos son evidentes (`concave points_mean`, `concave points_worst`, `concave points_se`).  

**Relacionadas con la textura y fractales**  
Estas características están asociadas a la apariencia y complejidad de la imagen de los núcleos celulares. La **textura** mide la variación en la intensidad de los píxeles y se reporta como media (`texture_mean`), peor caso (`texture_worst`) y desviación estándar (`texture_se`). Por su parte, la **dimensión fractal** describe la irregularidad del borde de los núcleos celulares y también se mide como media (`fractal_dimension_mean`), peor caso (`fractal_dimension_worst`) y desviación estándar (`fractal_dimension_se`).  


El análisis se centra en la aplicación de técnicas de aprendizaje supervisado, como **CART**, **Random Forest** y **SVM**, para predecir el diagnóstico basado en las características numéricas. Además, se aplicarán técnicas de aprendizaje no supervisado, como el **clustering** y la **reducción de dimensionalidad** mediante **PCA** , para explorar los patrones ocultos en los datos y posiblemente mejorar la precisión de los modelos.

## 2. Metodología

El desarrollo de este proyecto se llevará a cabo a través de un enfoque estructurado y secuencial en varias fases, con el objetivo de analizar y predecir el diagnóstico de cáncer de mama utilizando imágenes FNA. Los pasos clave del proceso son los siguientes:

1.  **Análisis Inicial y Preprocesamiento de los Datos**\
    En esta fase inicial, se procederá con la carga de los datos del conjunto de datos "Breast Cancer Wisconsin (Diagnostic)", que contiene las características extraídas de imágenes de aspiración con aguja fina (FNA). Se realizará una exploración preliminar de los datos para comprender la naturaleza de las variables y la distribución de las clases (benigno y maligno). Además, se identificará y gestionará cualquier valor faltante, y se evaluará la necesidad de realizar transformaciones adicionales, como la normalización o la conversión de variables categóricas.

2.  **Aplicación de Modelos Supervisados**\
    En esta etapa, se implementarán y entrenarán varios **modelos supervisados** para la clasificación de los tumores como benignos o malignos. Los modelos seleccionados incluyen:

    -   **CART (Classification and Regression Trees)**: Un modelo de árbol de decisiones que permite realizar predicciones mediante una serie de reglas basadas en los datos de entrada.
    -   **Random Forest**: Un conjunto de árboles de decisión que mejora la precisión mediante el uso de técnicas de muestreo y combinación de varios modelos.
    -   **SVM (Support Vector Machine)**: Un modelo que encuentra el hiperplano óptimo que separa las clases de manera eficaz.
    -   **Regresión logística**: Un modelo estadístico que puede adaptarse a diferentes distribuciones de las variables dependientes, como la binomial en este caso.\
        Se evaluará la **Importancia de las Variables** en los modelos para identificar las características más influyentes en las predicciones.
    -  **Redes Neuronales**: Un modelo de aprendizaje profundo que puede capturar relaciones complejas entre las variables y adaptarse a patrones no lineales en los datos.
3.  **Experimentación con el Dataset Reducido**\
    Posteriormente, se realizará una **experimentación** en la que se modificarán las características del dataset mediante la eliminación de variables menos relevantes, basándose en la **importancia de las variables** obtenida de los modelos. Esto permitirá optimizar los modelos y reducir el sobreajuste, mejorando la capacidad de generalización del sistema de diagnóstico.

------------------------------------------------------------------------

4.  **Aplicación de Modelos No Supervisados**\
    Para explorar los patrones subyacentes en los datos sin utilizar etiquetas de clase, se implementarán **modelos no supervisados**. Estos incluirán:
    -   **Clustering**: En primer lugar se buscará el número de clusters con el **método del codo** y **silhouette** Se utilizarán técnicas como **K-means**,**Clustering jerárquico** o **DBSCAN** para agrupar las observaciones de acuerdo con similitudes en sus características. Esto permitirá identificar posibles grupos de datos que podrían no haber sido evidentes en la clasificación supervisada.
    -   **Reducción de Dimensionalidad**: Para reducir el número de variables y simplificar el análisis, se emplearán técnicas como **PCA (Principal Component Analysis) y T-SNE**. Estas técnicas ayudarán a descubrir las estructuras latentes en los datos y facilitarán la visualización y el análisis posterior.
    -   **Algoritmo a priori**: Se aplicará el algoritmo **a priori** para identificar reglas de asociación entre las características del dataset. Esto permitirá descubrir patrones interesantes y relaciones ocultas entre las variables.
5.  **Presentación de los Resultados y Conclusiones**\
    Finalmente, se presentarán los **resultados** obtenidos de los modelos evaluados, incluyendo tablas, gráficos y análisis comparativos. En esta sección se discutirá la efectividad de las técnicas empleadas, destacando los modelos más precisos y los enfoques que mejor se ajustan a las necesidades del diagnóstico de cáncer de mama. Las **conclusiones** se centrarán en la viabilidad y los posibles pasos a seguir para mejorar el rendimiento del modelo y su aplicabilidad en un entorno clínico.

## 3. Implementación

En esta sección se muestran los pasos que se han seguido para la realización del proyecto. Incluye el Análisis Inicial y Preprocesamiento de los Datos, los modelos supervisados y no supervisados utilizados.

### 3.1. Análisis Inicial y Preprocesamiento de los Datos.

#### 3.1.1. Importación de librerías

Se instalan los paquetes que serán necesarios durante el proyecto:

-   Tidyverse: Para la manipulación de datos y gráficos.
-   Caret: Para el preprocesamiento y modelado Lattice es requerido por Caret
-   DataExplorer: Para la exploración automatizada de los datos.
-   Dplyr: Proporciona una gramática de manipulación de datos.
-   Ggplot2: Personalización de gráficas.
-   Psych: Para análisis estadístico
-   Corrplot: Visualización de matriz de correlación.
-   Car:  Para complementar técnicas de regresión.
-   pRoc: Proporciona herramientas para visualizar., suavizar y comparar curvas Roc.

```{r setup, warning=FALSE, message=FALSE}
# Nota: Descomentar las líneas de instalación si no se tienen los paquetes instalados. Comando ctrl+shift+c para descomentar.

# install.packages("tidyverse")
# install.packages("caret")
# install.packages("DataExplorer")
# install.packages("dplyr")
# install.packages("ggplot2")
# install.packages("lattice")
# install.packages("psych")
# install.packages("corrplot")
# install.packages("ggcorrplot")
# install.packages("car")
# install.packages("pROC")
# install.packages("flextable")
# install.packages("kernlab")
# install.packages("cluster")
# install.packages("dbscan")
# install.packages("Rtsne")
# install.packages("arules")
# install.packages("arulesViz")
```

```{r}
library(tidyverse)
library(caret)
library(DataExplorer)
library(dplyr)
library(ggplot2)
library(lattice)
library(psych)
library(corrplot)
library(ggcorrplot)
library(pROC)
library(car)
library(flextable)
library(kernlab)
library(cluster)
library(dbscan)
library(Rtsne)
library(arules)
library(arulesViz)
```

#### 3.1.2. Carga y visualización de datos

Para comenzar el análisis es necesario realizar la carga de los datos, se visualizan las primeras filas y la estructura de nuestro dataset.

```{r}
data <- read.csv("data/data.csv")

head(data)
```



```{r}
dim <- dim(data)

cat("Número de columnas:", dim[2], "\n")
cat("Número de filas:", dim[1], "\n")
```
Como se puede observar, el dataset cuenta con 569 filas y 33 columnas.


A continuación, se muestra la estructura, tipos y algunos ejemplos de las variables del dataset para tener una visión global del las distintas variables con las que se cuenta.

```{r}
str(data)
```

```{r}
# sapply aplica una función a cada columna del dataframe
clases <- sapply(data, class)
clases_df <- data.frame(Clase = clases)

print(clases_df, row.names = FALSE)
```
Se obtienen las clases de cada columna en el conjunto de datos para entender mejor su tipo de datos y estructura. Esto permite visualizar rápidamente el tipo de variable (numérica, categórica, etc.) que se encuentra en el dataset.


Se visualiza un resumen estádistico de los datos.

```{r}
describe(data)
```




Se verifica si existen valores faltantes en los datos utilizando la función `anyNA()`. Esto permite identificar rápidamente si hay datos incompletos en el dataset que puedan requerir limpieza o manejo especial.

```{r}
anyNA(data)
```

Se observa que existen valores faltantes en el dataset. Para visualizar de manera más clara la cantidad de valores faltantes por columna, se utiliza la función `plot_missing(data)`.

```{r}
plot_missing(data)
```

Como puede observarse, se cuenta con 569 valores faltantes en la última columna "X". Más adelante se procederá a eliminar esta columna.

#### 3.1.3. Análisis exploratorio de los datos

En este paso el objetivo será entender la distribución y relaciones de variables.

##### 3.1.3.1. Visualización de distribuciones y correlaciones:

Se visualiza un resumen gráfico general para entender las distribuciones y correlaciones entre las variables en el conjunto de datos. Esto ayuda a identificar patrones, distribuciones de frecuencia y posibles relaciones entre las diferentes columnas del dataset.

```{r}
plot_intro(data)
```

Como se puede observar, el dataset cuenta con un 3% de columnas discretas, en concreto la columna "diagnosis" que es la variable objetivo, y un 94% de columnas continuas. Además, se observa un 3% de columnas con valores faltantes, que corresponden a la columna "X".

Se visualizan las variables categóricas que dice si el tumor es "Maligno" o "Benigno" para contar cuántas observaciones hay de cada tipo. Esto permite ver la distribución de la columna diagnosis y entender la proporción entre ellas en el dataset.

```{r}
diagnosis_counts <- table(data$diagnosis)
plot_bar(data$diagnosis)
print("Distribución de la variable 'diagnosis' Benigno (B) y Maligno (M):")
print(diagnosis_counts)
```

La columna "diagnosis" contiene dos clases: "B" (Benigno) y "M" (Maligno). La distribución de las clases es desigual, con 357 observaciones de la clase "B" y 212 observaciones de la clase "M". Esto indica un desequilibrio ligero en la distribución de las clases.

Para visualizar la distribución de las variables numéricas, se utiliza la función `plot_histogram(data)`. Esto permite ver la distribución de cada variable en el dataset y comprender mejor la variabilidad y rango de valores de las características.

```{r}
plot_histogram(data)
```

Como se puede observar, las variables numéricas presentan diferentes distribuciones y rangos de valores. Algunas variables, como "concave.points_worst", parecen tener una distribución sesgada hacia la derecha, mientras que otras, como "symmetry_mean", parecen tener una distribución más simétrica. Estas diferencias en las distribuciones pueden ser útiles para identificar patrones y relaciones entre las variables.

#### 3.1.4. Preprocesamiento de los datos

Es necesario realizar un preprocesamiento de los datos para limpiarlos y prepararlos para el análisis y modelado. Esto incluye la eliminación de valores faltantes, la codificación de variables categóricas y la selección de atributos relevantes.

##### 3.1.4.1. Eliminación de valores faltantes

Para comenzar, se ha identificado que hay una columna con todos los valores faltantes, es decir, NA. El primer paso en el preprocesamiento será eliminar esta columna "x".

Se verifica que la columna "X" se haya eliminado correctamente y que no haya otros valores faltantes en el dataset.

```{r}
data <- data %>% select(-X)
plot_missing(data)
anyNA(data)
```

No quedan valores faltantes en el dataset, por lo que se procederá a eliminar la columna "id", ya que no aporta información relevante.

```{r}
data <- data %>% select(-id)

print("Busqueda de columna id en el dataset:")
print("id" %in% colnames(data))

```

Como se puede observar, se ha eliminado la columna "id" y se ha verificado que no hay más valores faltantes, excepto los ya eliminados en "X".

Después de estos procesos, contamos con un dataset de:

```{r}
dim <- dim(data)

cat("Número de columnas:", dim[2], "\n")
cat("Número de filas:", dim[1], "\n")
```

569 filas y 31 columnas.

##### 3.1.4.2. Codificación de variables Categóricas

Anteriormente, vimos que nuestro dataset cuenta con una única columna de valores categóricos, "Diagnosis", cuyos valores tienen el siguiente significado: - M (malignant) - B (benign)

El siguiente paso en el preprocesado de datos será pasar esta columna a numérica, lo que será necesario para estudiar la correlación de variables de nuestro dataset. 

Como solo se presentan dos posibles valores ("M" y "B"), se aplicará Codificación Binaria: El valor "M" pasará a ser 1 y valor "B" pasará a ser 0.


```{r}

#M -> 1; B -> 0
data$diagnosis <- ifelse(data$diagnosis == "M", 1, 0)
```

Se verifica que la columna "diagnosis" se haya codificado correctamente.

```{r}
# imprimir los primeros valores de la columna diagnosis, formateado
print("Valores de la columna 'diagnosis' después de la codificación:")
data$diagnosis
```

A continuación, se verifica que todas las columnas del dataset sean numéricas, ya que algunos modelos de aprendizaje automático requieren que todas las variables de entrada lo sean. Para ello, se identifican las columnas categóricas y se comprueba que todas las columnas sean numéricas.

```{r}

categorical_columns <- sapply(data, is.factor) | sapply(data, is.character)
names(data)[categorical_columns]


```

Efectivamente, todas las columnas ahora son numéricas, lo que da paso al siguiente punto en el preprocesamiento de datos.

##### 3.1.4.3. Estudio de correlación.

Al tener el dataset limpio de valores faltantes, NA, y solo hay presentes variables numéricas, el siguiente paso será estudiar las posibles correlaciones de nuestro dataset.

Estudiar la correlación de los datos ayuda a identificar patrones y relaciones entre variables, lo que podría conducir a nuevas hipótesis y descubrimientos. Además, un buen estudio de correlaciones podría ser útil para seleccionar variables relevantes y construir modelos en un futuro.

Los valores que se obtienen tendrán la siguiente interpretación:

-   Correlación cercana a 1: Relación positiva fuerte.
-   Correlación cercana a -1: Relación negativa fuerte.
-   Correlación cercana a 0: No hay relación lineal significativa

Se calcula la matriz de correlación para el conjunto de datos utilizando solo las observaciones completas. Esto permite visualizar las relaciones lineales entre las variables numéricas del dataset, identificando patrones de correlación positiva y negativa entre las diferentes variables.

```{r}

# Calcular matriz de correlación
correlation_matrix <- cor(data, use = "complete.obs")  # Ignora valores faltantes


# Graficar matriz de correlación
corrplot(correlation_matrix, method = "color", type = "upper", tl.cex = 0.8)

```

Como se puede observar, dado que el conjunto de datos contiene 31 variables, la matriz de correlación resulta difícil de interpretar directamente. Para facilitar la comprensión de las relaciones entre las variables, se muestra a continuación una tabla con las parejas de atributos ordenadas por la magnitud de la correlación.

```{r}
# Eliminar la columna 'diagnosis' antes de calcular las correlaciones
data_no_target <- data[, !names(data) %in% c("diagnosis")]

cor_matrix <- cor(data_no_target, use = "complete.obs")

cor_matrix_df <- as.data.frame(as.table(cor_matrix))
cor_matrix_df <- cor_matrix_df[cor_matrix_df$Var1 != cor_matrix_df$Var2, ]
cor_matrix_df <- cor_matrix_df[order(-abs(cor_matrix_df$Freq)), ]
# Eliminar duplicados. a<->b = b<->a
cor_matrix_df <- cor_matrix_df[seq(1, nrow(cor_matrix_df), by = 2), ]

print(cor_matrix_df)
```

En la tabla se presentan las correlaciones entre las variables independientes del conjunto de datos. Se observan correlaciones altas entre algunas de las variables, como **perimeter_mean y radius_mean** (0.998), **perimeter_worst y radius_worst** (0.994), **area_mean y radius_mean** (0.987), y **area_worst y perimeter_worst** (0.978). Estas altas correlaciones tienen sentido porque las variables de **radio** (radius) y **perímetro** (perimeter) están matemáticamente relacionadas: a medida que el radio de un tumor aumenta, también lo hace su perímetro, lo que explica las correlaciones cercanas a **1**. Similarmente, las variables de **área** también están fuertemente correlacionadas con el radio y el perímetro, ya que un tumor con un mayor radio suele tener una mayor área. Aunque estas correlaciones son altas, no son sorprendentes, ya que todas están capturando diferentes aspectos del **tamaño** y la **forma** del tumor.

Dado que "diagnosis" es nuestra variable objetivo, vamos a observar cómo se correlacionan las demás variables con ella para entender mejor su relación y posibles influencias.

```{r}
cor_with_target <- cor(data, data$diagnosis, use = "complete.obs")
correlation_df <- data.frame(Variable = names(data), Correlation = cor_with_target)
correlation_df_sorted <- correlation_df[order(-correlation_df$Correlation), ]
print(correlation_df_sorted)
```

En esta tabla se presenta la correlación de cada variable con la variable objetivo **'diagnosis'**. La correlación de **'diagnosis'** consigo misma es **1**, como es esperado. Las variables que presentan las correlaciones más altas con **'diagnosis'** son **concave.points_worst** (0.793), **perimeter_worst** (0.782), **concave.points_mean** (0.776), **radius_worst** (0.776) y **perimeter_mean** (0.743). Estas correlaciones indican que las características relacionadas con el **número de puntos cóncavos** y el **perímetro** del tumor están fuertemente asociadas con el diagnóstico, lo que las convierte en buenos predictores del diagnóstico maligno o benigno. En general, las variables que presentan correlaciones superiores a **0.7** sugieren que son relevantes para la predicción de la variable objetivo. Estas características del **tamaño** y la **forma** del tumor, como el perímetro y los puntos cóncavos, son especialmente importantes para predecir si el tumor es maligno o benigno.

Las variables menos correlacionadas con **'diagnosis'** son **symmetry_se** (-0.006), **fractal_dimension_se** (-0.077), **texture_se** (-0.008), **smoothness_se** (-0.067) y **fractal_dimension_mean** (-0.012). Estas correlaciones cercanas a **0** indican que estas características no están fuertemente asociadas con el diagnóstico y pueden no ser tan relevantes para la predicción. Esto tiene sentido ya que son errores estándar y medidas de textura y suavidad que podrían no ser tan informativas para distinguir entre tumores malignos y benignos.

##### 3.1.4.4. Selección de Atributos

La selección de atributos se refiere al proceso de identificar y elegir las variables más relevantes para un análisis, descartando las redundantes o irrelevantes para mejorar la calidad y eficiencia del modelo. En este caso, dado que algunas variables en el dataset muestran altas correlaciones entre sí, se podría considerar eliminarlas para reducir la dimensionalidad y simplificar el análisis.

A pesar de las correlaciones fuertes entre ciertas variables, ninguna es mayor de 0,8-0.9 por lo que eliminarlas podría no ser adecuado ya que el conjunto de datos es limitado. La eliminación de variables podría llevar a una pérdida significativa de información valiosa que podría ser crucial para el análisis y las predicciones. Mantener todas las variables como "area_mean" o "perimeter_mean" aporta información única y valiosa al modelo, lo que permite capturar un panorama más completo del tumor.

Por lo tanto, se optará por mantener todas las variables. Aún así, en la experimentación con los modelos se evaluará si la eliminación de algunas variables redundantes o irrelevantes puede mejorar la precisión y la eficiencia del modelo.

### 3.2. Análisis Supervisado.

El aprendizaje supervisado, también conocido como machine learning supervisado, es una subcategoría del machine learning y la inteligencia artificial. Se define por el uso de conjuntos de datos etiquetados para entrenar algoritmos que clasifican los datos o predicen los resultados con precisión.

A medida que se introducen datos en el modelo, este ajusta sus ponderaciones iterativamente hasta que se ha alcanzado un ajuste adecuado, proceso que ocurre como parte de la validación cruzada.

En este análisis, la variable a predecir será "diagnosis", que como se mencionó previamente, es binaria: 1 si el tumor es maligno y 0 si es benigno.

Se evaluaron diferentes modelos de clasificación para un conjunto de datos con 569 muestras y 30 variables, categorizados en 'Benigno' y 'Maligno'. Los modelos analizados incluyen el Árbol de Decisión (CART), Random Forest (Bosque Aleatorio), Máquinas de Soporte Vectorial con núcleo Radial (SVM), Regresión logística y un clasificador con redes neuronales.

El primer paso en el análisis supervisado es realizar la división del dataset.

#### 3.2.1. División del Dataset:

Para este paso, se utilizará la validación cruzada K-fold para dividir el dataset y evaluar el modelo. En lugar de una división simple en entrenamiento y prueba, K-fold asegura que cada subconjunto o fold del dataset sea utilizado tanto para el entrenamiento como para la prueba en diferentes iteraciones, proporcionando así una evaluación más robusta.

Establecemos una semilla para asegurar que los resultados sean reproducibles, es decir, que se obtengan los mismos resultados cada vez que se ejecute el código. Luego, configuramos el K-fold Cross-Validation con probabilidades de clase, que nos permitirá evaluar los modelos utilizando métricas de clasificación binaria.

```{r}
set.seed(123)

k <- 5

train_control <- trainControl(
  method = "cv",           # Cross-validation
  number = k,              # Número de pliegues (folds)
  classProbs = TRUE,       # Habilitar probabilidades de clase
  summaryFunction = twoClassSummary, # Para métricas de clasificación binaria
  savePredictions = "final" # Guardar las predicciones finales
)

```

Se cambian los niveles de la variable objetivo "diagnosis" de 0 y 1 a "B" y "M" para facilitar la interpretación de los resultados y la visualización de las métricas de evaluación.

```{r}
data$diagnosis <- factor(data$diagnosis, levels = c(0, 1), labels = c("B", "M"))
```

Para poder evaluar el rendimiento de los modelos, es necesario establecer un punto de referencia o *baseline* que nos permita comparar su desempeño. En este caso, utilizaremos un enfoque simple basado en la clase mayoritaria, que consiste en predecir la clase más común en el conjunto de datos sin tener en cuenta ninguna característica predictiva. Este enfoque no es útil para la predicción real, pero nos proporcionará una referencia mínima para evaluar la eficacia de los modelos posteriores.

En nuestro análisis, la clase mayoritaria se identifica como "Benigno" (B). Esto significa que, si utilizáramos este enfoque, todas las instancias se clasificarían como benignas, ignorando cualquier característica del conjunto de datos que pudiera diferenciar los casos malignos (M). Este enfoque nos proporciona una medida básica de rendimiento, incluyendo métricas como la *exactitud (accuracy)* y la sensibilidad para la clase mayoritaria.

Si un modelo más avanzado no puede superar este baseline en métricas clave, como el área bajo la curva ROC (AUC-ROC) o la precisión general, entonces el modelo no estaría capturando patrones significativos en los datos. Por lo tanto, no sería útil para la clasificación de los tumores de mama.

El ROC muestra la tasa de verdaderos positivos frente a la tasa de falsos positivos a diferentes umbrales de clasificación, mientras que el AUC proporciona un único valor que resume el rendimiento del modelo en términos de probabilidad de clasificación. Estos valores se utilizarán posteriormente para comparar con otros modelos, ayudando a evaluar cuál proporciona las mejores predicciones en términos de sensibilidad y especificidad.

Para el baseline se identifica a continuación la clase mayoritaria en el dataset. Luego se predice esta clase en todos los casos y se calcula la matriz de confusión para evaluar el desempeño de la predicción basada en la clase mayoritaria.

```{r}
# Identificar la clase mayoritaria
majority_class <- as.character(names(sort(table(data$diagnosis), decreasing = TRUE)[1]))

# Predicción de la clase mayoritaria en todos los casos
majority_predictions <- factor(rep(majority_class, nrow(data)), levels = levels(data$diagnosis))

conf_matrix_majority <- confusionMatrix(majority_predictions, data$diagnosis)
cat("Baseline: Predicción de la clase mayoritaria\n")
print(conf_matrix_majority)
```

Se calcula el valor del ROC (Receiver Operating Characteristic) y el AUC (Área Bajo la Curva) para evaluar el rendimiento de la predicción basada en la clase mayoritaria.

```{r warning=FALSE}


# Calcular la probabilidad de cada clase basada en las frecuencias relativas
class_probabilities <- prop.table(table(data$diagnosis))

# Crear probabilidades para el baseline
baseline_probabilities <- rep(class_probabilities[majority_class], nrow(data))

# Calcular el ROC y el AUC
roc_curve <- roc(response = data$diagnosis, 
                 predictor = baseline_probabilities, 
                 levels = rev(levels(data$diagnosis)))

cat("Valor del AUC-ROC para el baseline:", auc(roc_curve), "\n")

```

Los resultados obtenidos para el baseline basado en la clase mayoritaria revelan las limitaciones de este enfoque simplista. El modelo clasifica correctamente todos los casos benignos (B), logrando una sensibilidad perfecta de 1.0 para esta clase. Sin embargo, su especificidad es 0.0, lo que indica que no logra identificar ningún caso maligno (M).

La *exactitud* general del modelo es del 62.74%, lo que coincide con la proporción de la clase mayoritaria en el conjunto de datos. Este valor representa el *No Information Rate (NIR)*, o la precisión esperada si las predicciones se hicieran de manera aleatoria basándose únicamente en la distribución de clases. Además, el valor de kappa es 0, reflejando que las predicciones no aportan información más allá del azar.

El resultado más significativo es la incapacidad del modelo para identificar correctamente los casos malignos. Esto se evidencia por un *Valor Predictivo Positivo (PPV)* de 62.74%, pero un *Valor Predictivo Negativo (NPV)* indefinido (NaN), ya que nunca predice la clase M. Además, el área bajo la curva ROC (AUC-ROC) es de 0.5, lo que indica que el modelo no es capaz de discriminar entre las dos clases.

Este baseline denota la necesidad de utilizar modelos más avanzados que sean capaces de capturar patrones discriminativos en los datos para lograr un mejor equilibrio entre sensibilidad y especificidad. Este punto de partida servirá como referencia mínima para evaluar la eficacia de los modelos posteriores.

#### 3.2.2. Árbol de Decisión (CART):

El árbol de decisión es un modelo simple que divide los datos en segmentos basados en reglas de decisión. Es útil para clasificaciones donde las decisiones son lógicas y fáciles de entender

```{r}

# Árbol de Decisión utilizando K-fold cross-validation
model_cart <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "rpart",     # Árbol de decisión (CART)
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_cart)

# Extraer la importancia de las variables
importance_cart <- varImp(model_cart, scale = FALSE)
importance_cart_df <- importance_cart$importance
importance_cart_df$variable <- rownames(importance_cart_df)

```

El primer modelo analizado es el Árbol de Decisión (CART). Este modelo utiliza un valor de complejidad de poda (cp) de 0.0047, que fue seleccionado como el mejor parámetro mediante validación cruzada.

La curva ROC del modelo es de 0.9362, lo que indica una alta capacidad para discriminar entre las dos clases.

La sensibilidad (capacidad del modelo para identificar correctamente las observaciones positivas) es de 0.9383, lo que sugiere que el modelo es muy eficiente para detectar las observaciones positivas, aunque algo menos efectivo que otros modelos en cuanto a la especificidad. De hecho, la especificidad (capacidad para identificar correctamente las observaciones negativas) es de 0.8960, lo que representa una leve caída respecto a la sensibilidad.

Este desempeño es sólido y equilibrado, pero no es el más alto entre los modelos evaluados.

#### 3.2.3. Random Forest

El Random Forest es un algoritmo que construye múltiples árboles de decisión y realiza una predicción agregando las predicciones de todos los árboles individuales. Es robusto ante el sobreajuste.

```{r}
model_rf <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "rf",        # Random Forest
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_rf)

# Extraer la importancia de las variables
importance_rf <- varImp(model_rf, scale = FALSE)
importance_rf_df <- importance_rf$importance
importance_rf_df$variable <- rownames(importance_rf_df)

```

Para entender mejor los resultados del modelo, aclarar que el parámetro mtry en el contexto de Random Forest es uno de los hiperparámetros clave que se utiliza para controlar el número de variables (características) que el modelo considera para dividir cada nodo en cada árbol del bosque. Específicamente, mtry define cuántas características serán elegidas aleatoriamente para cada nodo cuando se construye un árbol en el Random Forest.

Random Forest, muestra un desempeño destacable. Este modelo seleccionó el valor de mtry (número de variables aleatorias para cada división del árbol) igual a 2, lo que optimiza la capacidad de discriminación. Su curva ROC alcanza un valor impresionante de 0.9908, lo que es un indicador claro de su capacidad para separar las dos clases con gran precisión. Además, la sensibilidad de 0.9804 muestra que Random Forest tiene una excelente capacidad para detectar correctamente las observaciones positivas, y la especificidad de 0.9241 indica que también es eficaz en identificar las observaciones negativas. Este modelo sobresale por su alta precisión en ambos aspectos, lo que lo convierte en uno de los modelos más robustos y confiables para este conjunto de datos.

#### 3.2.4. Support Vector Machine (SVM)

El Support Vector Machine (SVM) es un algoritmo que intenta encontrar el hiperplano que mejor separe las diferentes clases de datos.

```{r}


model_svm <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "svmRadial",  # Support Vector Machine con kernel radial
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_svm)

# Extraer la importancia de las variables
importance_svm <- varImp(model_svm, scale = FALSE)
importance_svm_df <- importance_svm$importance
importance_svm_df$variable <- rownames(importance_svm_df)

```

El tercer modelo evaluado es el de Máquinas de Soporte Vectorial con núcleo Radial (SVM). Este modelo, con un parámetro de regularización 𝐶=1 y un valor de sigma de 0.0475, mostró un desempeño excelente en términos de la curva ROC, alcanzando un valor de 0.9948, el más alto entre todos los modelos. Esta métrica refleja una capacidad de discriminación superior, lo que implica que el modelo tiene una alta habilidad para separar correctamente las clases 'Negative' y 'Positive'. La sensibilidad de 0.9748 y la especificidad de 0.9670 también son notablemente altas, lo que sugiere que el modelo tiene un buen rendimiento tanto en la detección de las observaciones positivas como en la correcta identificación de las negativas. Sin embargo, es importante destacar que el modelo SVM presentó varias advertencias durante el proceso de optimización (warnings), relacionadas con problemas de convergencia y probabilidades extremas de 0 o 1. Esto podría indicar que el modelo podría estar sobreajustando o enfrentando dificultades para encontrar un equilibrio estable, lo que debe tenerse en cuenta al evaluar su estabilidad y generalización.

#### 3.2.5. Regresión Logística

Este algoritmo es un modelo de clasificación que predice la probabilidad de que una observación pertenzca a una clase o no.

```{r warning=FALSE}


model_logit <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "glm",       # Regresión Logística
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_logit)

# Extraer la importancia de las variables
importance_logit <- varImp(model_logit, scale = FALSE)
importance_logit_df <- importance_logit$importance
importance_logit_df$variable <- rownames(importance_logit_df)

```

El último modelo considerado es el Modelo de regresión Logística. Este modelo, a pesar de ser sencillo en su estructura, mostró un rendimiento respetable. Su curva ROC alcanzó un valor de 0.9552, lo cual es inferior a los de Random Forest y SVM, pero sigue siendo adecuado para tareas de clasificación. La sensibilidad de 0.9438 indica que el modelo tiene una buena capacidad para identificar las observaciones positivas, mientras que la especificidad de 0.9484 es ligeramente mejor que la sensibilidad, lo que sugiere que el modelo tiene un desempeño ligeramente mejor para detectar las observaciones negativas en comparación con las positivas. Aunque el modelo de regresión Logística es funcional, su rendimiento en términos de la curva ROC es algo inferior en comparación con los modelos más complejos como SVM y Random Forest.

#### 3.2.6. Red Neuronal

Las redes neuronales son un modelo de aprendizaje profundo que imita el funcionamiento del cerebro humano. Están compuestas por capas de neuronas interconectadas que procesan la información y aprenden a partir de los datos. Puede ser interesante evaluar el rendimiento de una red neuronal en comparación con los modelos tradicionales de aprendizaje supervisado.

```{r warning=FALSE, message=FALSE}
# Entrenar una red neuronal para clasificación binaria
model_nn <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data,
  method = "nnet",      # Red Neuronal
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC",       # Evaluar utilizando AUC (Área bajo la curva ROC)
  verbose = FALSE       # Suprimir los detalles del entrenamiento
)
```

```{r}

# Imprimir los resultados del modelo
print(model_nn$results)


# Extraer la importancia de las variables
importance_nn <- varImp(model_nn, scale = FALSE)
importance_nn_df <- importance_nn$importance
importance_nn_df$variable <- rownames(importance_nn_df)


```

El modelo de Red Neuronal, tiene un rendimiento muy similar al de Random Forest y SVM, con una curva ROC de 0.9922, una sensibilidad de 0.9551 y una especificidad de 0.9431. Esto indica que la red neuronal es capaz de discriminar eficazmente entre las clases 'Beningno' y 'Maligno', con una alta capacidad para detectar las observaciones positivas y negativas. Aunque la red neuronal es un modelo más complejo y requiere más tiempo de entrenamiento, su rendimiento es comparable al de los modelos más tradicionales, lo que sugiere que puede ser una opción viable para la clasificación de tumores de mama.

#### 3.2.7 Evaluación de los modelos

Esta sección se dedica a evaluar el rendimiento de los modelos utilizados en el análisis. La comparación de modelos se realiza utilizando técnicas de validación cruzada, como K-fold, para obtener una visión robusta del desempeño de cada uno. Los resultados obtenidos de estos modelos se comparan a través del resumen de resampling y se visualizan mediante el diagrama bwplot para identificar cuál modelo ofrece mejor precisión y generalización en las predicciones.

```{r}
resamples <- resamples(list(cart = model_cart, rf = model_rf, svm = model_svm, logit = model_logit, nn = model_nn))

summary(resamples)
bwplot(resamples)

```

Se observa que el mejor modelo es el "SVM" ya que tiene el valor más alto de AUC-ROC, además de tener una alta sensibilidad y especificidad. El modelo "Random Forest" también tiene un buen rendimiento, pero la especificidad no es tan alta probablemente por el outlier que se observa en el diagrama bwplot.

Redes neuronales tambien cuenta con buen desempeño aunque con menor sensibilidad y especificidad que los modelos anteriores. Logit y CART presentan un rendimiento inferior en comparación con los otros modelos.

### 3.3. Experimentación de modelos supervisados con reducción de variables

En esta sección, se experimentará con la reducción de variables para evaluar si es posible mejorar el rendimiento de los modelos de aprendizaje supervisado. La reducción de variables implica seleccionar un subconjunto de características más relevantes y eliminar las menos importantes, lo que puede simplificar el modelo y mejorar su capacidad predictiva. 


Se procederá a realizar un estudio de la importancia de las variables para identificar cuáles son las características más relevantes en la predicción del diagnóstico de cáncer de mama y así poder seleccionar las más importantes para mejorar el rendimiento de los modelos.

#### 3.3.1. Estudio de la Importancia de las Variables

El estudio de la importancia de variables nos permite identificar cuáles son las características que más influyen en las predicciones realizadas.

El objetivo del estudio de importancia de variables es eliminar aquellas que consistentemente tienen baja importancia en todos los modelos:

1- Obtener la importancia de variables de cada modelo. 2- Normalizar la importancia para compararla entre modelos. 3- Calcular una métrica consolidada de importancia promedio. 4- Identificar las variables con menor impacto en todos los modelos.

##### 3.3.1.1. Árbol de Decisión (CART)

En los árboles de decisión, la importancia de variables se calcula en función de las ganancias de reducción de impureza, por ejemplo, la reducción de la entropía o del índice Gini en los nodos donde la variables es utilizada para dividr los datos.

```{r}
plot(importance_cart, main = "Importancia de Variables - CART")
```

Las variables con mayor importancia en el modelo CART son "concave.points_worst", "concave.points_mean", "radius_worst", "area_worst" y "perimeter_worst". Estas variables son las más influyentes en la predicción del diagnóstico de cáncer de mama, lo que sugiere que las características relacionadas con los puntos cóncavos, el radio, el área y el perímetro del tumor son críticas para distinguir entre tumores malignos y benignos.

##### 3.3.1.2. Random Forest

En Random Forest la importancia se calcula mediante dos enfoques comunes:

-   Importancia basada en permutación: Evalúa cómo cambia la precisión del modelo al permutar aleatoriamente los valores de una variable.
-   Reducción promedio de la impureza: Calcula cuánto contribuye una variable a la reducción de impureza a través de todos los árboles del bosque.

```{r}
plot(importance_rf, main = "Importancia de Variables - Random Forest")
```

En este caso las variables más importantes son similares al modelo anterior.

##### 3.3.1.3. Support Vector Machine (SVM)

El calculo de la importancia en SVM no es tan directo, ya que este modelo no se basa en una estructura jerárquica o en una gregación de árboles. Podemos estimar la importancia de las variables mediante análisis post-hoc, como la evaluación de los coeficientes en el espacio formado por el núcleo radial.

```{r}
plot(importance_svm, main = "Importancia de Variables- SVM")
```

Al igual que en los modelos anteriores, parece que las variables de peor y media de perimetro radio area y concavidad son las más importantes en la predicción del diagnóstico de cáncer de mama.

##### 3.3.1.4. Regresión Logística

En regresión logística, la importancia de variables se puede analizar mediante los coeficientes estimados del modelo. Estos coeficientes indican la magnitud y la dirección del efecto de cada variable en la probabilidad de que un tumor sea maligno.

```{r}
plot(importance_logit, main = "Importancia de Variables - Regresión Logística")
```

En este caso la simetría toma un papel importante en la predicción del diagnóstico de cáncer de mama.

##### 3.3.1.5 Red Neuronal

En las redes neuronales, la importancia de las variables puede ser más difícil de interpretar debido a la complejidad del modelo. Sin embargo, es posible analizar la contribución de cada variable a la salida de la red mediante técnicas de backpropagation y análisis de sensibilidad.

```{r}
plot(importance_nn, main = "Importancia de Variables - Red Neuronal")
```

Al igual que en los modelos anteriores, las variables relacionadas con el tamaño y la forma del tumor, como el radio, el área y el perímetro, parecen ser las más influyentes en la predicción del diagnóstico de cáncer de mama.

#### 3.3.2 Normalización de Variables

Para **normalizar la importancia** y poder compararla entre modelos, se debe calcular la **importancia relativa** de cada variable en términos de contribución a la predicción del modelo. Esto permite **estandarizar las mediciones** y hacerlas comparables, independientemente del modelo o del algoritmo usado. Luego, se calcula una **métrica consolidada** que represente la **importancia promedio** de las variables en todos los modelos. Este valor consolidado se obtiene al promediar las **importancias individuales** de cada variable entre los diferentes modelos. Por último, se identifican las **variables con menor impacto** en todos los modelos al analizar aquellas que tienen una importancia **significativamente baja** en comparación con otras.

```{r}
# Consolidar importancia de variables
importance_combined <- merge(
  merge(importance_cart_df, importance_rf_df, by = "variable", suffixes = c("_cart", "_rf")),
  merge(importance_svm_df, importance_logit_df, by = "variable", suffixes = c("_svm", "_logit")),
  
  by = "variable"
)

importance_combined <- merge(importance_combined, importance_nn_df, by = "variable")

# Promedio de importancia
importance_combined$mean_importance <- rowMeans(importance_combined[, -1], na.rm = TRUE)

# Seleccionar las menos importantes (por debajo de un umbral, por ejemplo, el percentil 90)
threshold <- quantile(importance_combined$mean_importance, 0.9)
least_important_vars <- importance_combined$variable[importance_combined$mean_importance <= threshold]

# Eliminar estas variables del dataset original
data_reduced <- data[, !(names(data) %in% least_important_vars)]

# Guardar el dataset reducido
write.csv(data_reduced, "data_reduced.csv", row.names = FALSE)

```

A continuación, se presentan las variables menos importantes en los modelos evaluados y el dataset reducido.

```{r}
print("Variables menos importantes:")
print(least_important_vars)
print("")
print("Dataset reducido:")
print(dim(data_reduced))

```

Como se puede observar, las variables menos importantes en los modelos evaluados son "symmetry_se", "fractal_dimension_se", "texture_se", "smoothness_se" y "fractal_dimension_mean". Estas variables tienen una baja contribución a la predicción del diagnóstico en comparación con otras características más relevantes, como el tamaño y la forma del tumor. El dataset reducido contiene 3 variables ("perimeter_worst","area_worst","concave.points_worst")

#### 3.3.3. Entrenamiento de Modelos con Dataset Reducido

El siguiente paso será repetir el análisis supervisado esta vez usando el dataset reducido en el que no aparecen las columnas "menos importantes". De esta forma se analiza si los resultados mejorar, empeoran o no afectan con el estudio de importancia de varianles:

**Árbol de Decisión (CART)**

```{r}
# Árbol de Decisión utilizando K-fold cross-validation
model_cart_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "rpart",     # Árbol de decisión (CART)
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_cart_reduced)
```

**Random Forest**

```{r}
model_rf_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "rf",        # Random Forest
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_rf_reduced)

```

**Support Vector Machine (SVM)**

```{r}

model_svm_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "svmRadial",  # Support Vector Machine con kernel radial
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_svm_reduced)

```

**Regresión Logística**

```{r}
model_logit_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "glm",       # Regresión Logística
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC"        # Evaluar utilizando AUC (Área bajo la curva ROC)
)

# Ver el resumen del modelo entrenado
print(model_logit_reduced)
```

**Red Neuronal**

```{r}
# Entrenar una red neuronal para clasificación binaria
model_nn_reduced <- train(
  diagnosis ~ .,        # Usamos todas las variables predictoras
  data = data_reduced,
  method = "nnet",      # Red Neuronal
  trControl = train_control,  # Control de validación cruzada
  metric = "ROC",       # Evaluar utilizando AUC (Área bajo la curva ROC)
  verbose = FALSE       # Suprimir los detalles del entrenamiento
)

```

#### 3.3.4. Comparación de resultados del análisis supervisado: dataset incial vs dataset reducido.

A continuación, se compararán los resultados de los modelos entrenados con el dataset completo y el dataset reducido. Se evaluarán las métricas de rendimiento, como el área bajo la curva ROC (AUC-ROC), la sensibilidad y la especificidad, para determinar si la reducción de variables afecta el rendimiento de los modelos.

```{r}
# Comparativa entre los modelos
# Lista de los modelos completos y reducidos
modelos_completos <- list(cart = model_cart, rf = model_rf, svm = model_svm, logit = model_logit, nn = model_nn)
modelos_reducidos <- list(cart = model_cart_reduced, rf = model_rf_reduced, svm = model_svm_reduced, logit = model_logit_reduced, nn = model_nn_reduced)

# Inicializamos un data frame vacío para almacenar los resultados
resultados <- data.frame(
  modelo = character(),
  roc_inicial = numeric(),
  sens_inicial = numeric(),
  spec_inicial = numeric(),
  roc_reducido = numeric(),
  sens_reducido = numeric(),
  spec_reducido = numeric(),
  stringsAsFactors = FALSE
)

# Iteramos sobre los modelos completos y reducidos
for (nombre in names(modelos_completos)) {
  # Modelo completo
  modelo_completo <- modelos_completos[[nombre]]
  mejor_completo <- modelo_completo$results[which.max(modelo_completo$results$ROC), c("ROC", "Sens", "Spec")]
  
  # Modelo reducido
  modelo_reducido <- modelos_reducidos[[nombre]]
  mejor_reducido <- modelo_reducido$results[which.max(modelo_reducido$results$ROC), c("ROC", "Sens", "Spec")]
  
  # Agregar al data frame
  resultados <- rbind(resultados, data.frame(
    modelo = nombre,
    roc_inicial = mejor_completo$ROC,
    sens_inicial = mejor_completo$Sens,
    spec_inicial = mejor_completo$Spec,
    roc_reducido = mejor_reducido$ROC,
    sens_reducido = mejor_reducido$Sens,
    spec_reducido = mejor_reducido$Spec,
    stringsAsFactors = FALSE
  ))
}

# Imprimir los resultados
print(resultados)

# Una tabla mostrando el relative change de cada métrica
comparativa <- resultados %>%
  mutate(
    roc_change = (roc_reducido - roc_inicial) / roc_inicial ,
    sens_change = (sens_reducido - sens_inicial) / sens_inicial,
    spec_change = (spec_reducido - spec_inicial) / spec_inicial
  ) %>%
  select(modelo, roc_change, sens_change, spec_change)

flextable(comparativa)

```

Como se puede ver en la tabla, que muestra el cambio relativo en las métricas de rendimiento de los modelos completos y reducidos, la reducción de variables no afecta significativamente el rendimiento de los modelos. En general, los cambios en el área bajo la curva ROC (AUC-ROC), la sensibilidad y la especificidad son mínimos, lo que sugiere que las variables eliminadas no tenían un impacto significativo en la capacidad predictiva de los modelos. Esto indica que el dataset reducido sigue siendo capaz de capturar los patrones relevantes en los datos y de realizar predicciones precisas sobre el diagnóstico de cáncer de mama.

Como los modelos no mejoran ni empeoran significativamente con la reducción de variables, se puede concluir que el dataset original contiene información redundante o poco relevante para la predicción del diagnóstico. Además, ahora es un proceso más eficiente y menos costoso computacionalmente, ya que se trabaja con un número menor de variables.

Las 3 variables más importantes para predecir el cáncer de mama son: "perimeter_worst","area_worst","concave.points_worst". Ya que se consigue un resultado equivalente con un menor número de variables, los modelos son más eficientes y menos propensos al sobreajuste.

### 3.4. Análisis No Supervisado.

El análisis no supervisado tiene como objetivo identificar patrones ocultos o estructuras presentes en los datos sin requerir etiquetas. Para este propósito, se emplean técnicas de clustering y reducción de dimensionalidad que permiten explorar la información contenida en las características de las células. Estas técnicas facilitan la identificación de grupos de observaciones similares y proporcionan una perspectiva más clara sobre las relaciones entre las variables.

#### 3.4.1. Preparación del Dataset

Previo a la aplicación de técnicas de análisis no supervisado, es fundamental realizar un preprocesamiento adecuado de los datos. El primer paso consiste en eliminar la columna "diagnosis", ya que dicha variable contiene la etiqueta que se desea predecir y no se utiliza en este tipo de análisis. Posteriormente, se normalizan las características, dado que muchas técnicas, como el clustering, son sensibles a las escalas de las variables. Este proceso asegura que todas las variables tengan la misma influencia en el modelo.

```{r}
data_UnSupervised <- data %>% select(-diagnosis)
head(data_UnSupervised)
data_UnSupervised$diagnosis
```

La normalización asegura que las variables con diferentes unidades de medida no dominen el análisis y evita que el algoritmo de clustering o reducción de dimensionalidad se vea sesgado por la magnitud de las variables. Se utiliza la función preProcess para calcular los parámetros de normalización y con la función predict, se aplican los parámetros calculados previamente al conjunto de datos, generando una nueva versión normalizada de las características

```{r}
# Normalizar los datos 
preprocess_params <- preProcess(data_UnSupervised[, -ncol(data_UnSupervised)], method = c("center", "scale"))
data_normalized <- predict(preprocess_params, data_UnSupervised[, -ncol(data_UnSupervised)])

```

El primer método de análisis no supervisado que se emplea es el clustering, el cual tiene como propósito agrupar las observaciones en función de sus similitudes.

#### 3.4.2. Clustering: Determinación del Número Óptimo de Clusters

En el análisis de clustering, es fundamental determinar el número óptimo de grupos o clusters, ya que este parámetro impacta directamente en la calidad de la segmentación. Existen diversas metodologías para identificar este valor, las cuales se basan en criterios estadísticos y geométricos que evalúan la estructura de los datos y la cohesión de los clusters formados.

El primer paso para aplicar técnicas de clustering consiste en identificar el número adecuado de clusters. Dos métodos comunes para este propósito son:

Método del codo: Este enfoque evalúa la variación explicada en función del número de clusters. Se identifica el "codo" en la gráfica, que corresponde al punto donde la mejora en la varianza explicada se estabiliza, indicando que añadir más clusters no produce beneficios significativos.

Índice de Silhouette: Este índice mide la similitud de cada punto con su propio cluster en comparación con otros clusters. Valores cercanos a +1 sugieren que los puntos están correctamente agrupados, mientras que valores cercanos a -1 indican posibles errores en la asignación de clusters.

```{r}
# Método del codo
wss <- (nrow(data_normalized) - 1) * sum(apply(data_normalized, 2, var))
for (i in 2:15) wss[i] <- sum(kmeans(data_normalized, centers = i)$withinss)

plot(1:15, wss, type = "b", xlab = "Número de Clusters", ylab = "Suma de Cuadrados Internos")

# Índice silhouette

silhouette_scores <- numeric()
for (i in 2:15) {
  km <- kmeans(data_normalized, centers = i)
  silhouette_scores[i] <- mean(silhouette(km$cluster, dist(data_normalized))[, 3])
}
plot(2:15, silhouette_scores[-1], type = "b", xlab = "Número de Clusters", ylab = "Puntaje de Silhouette")

```

Puede verse de forma más clara en el puntaje de Silhouette que k será 2.

El siguiente método de análisis no supervisado que se utiliza es el algoritmo K-means, el cual permite agrupar los datos en un número específico de clusters previamente determinado.

#### 3.4.3. K-Means

El algoritmo K-means es una técnica de clustering que organiza los datos en K clusters, con el objetivo de minimizar la varianza dentro de cada grupo.

```{r}
set.seed(123)

optimal_clusters = 2

kmeans_model <- kmeans(data_normalized, centers = optimal_clusters, nstart = 25)

# Agregar etiquetas de cluster al dataset original
data$cluster <- kmeans_model$cluster

# Mostrar los clusters de diferentes formas:

# Tabla de frecuencias
table(data$cluster)

# Resumen de los datos agrupados por cluster
aggregate(data[, -ncol(data)], by = list(cluster = data$cluster), FUN = mean)

table(data$diagnosis, data$cluster)


```
     1   2
  B 348   9
  M  37 175
Podemos observar que se han creado dos clusters, con 385 y 184  observaciones respectivamente. Además, se puede ver claramente que el cluster 1 contiene principalmente observaciones de la clase "B" (benigno), mientras que el cluster 2 contiene principalmente observaciones de la clase "M" (maligno). Esto sugiere que el algoritmo K-means ha sido capaz de agrupar las observaciones en función de su similitud, lo que facilita la identificación de patrones en los datos.

#### 3.4.4. Clustering jerárquico

El clustering jerárquico es una técnica que organiza los datos en una estructura de árbol, donde los clusters se forman de manera recursiva mediante la unión o división de grupos. Este enfoque permite visualizar la estructura de los datos en diferentes niveles de granularidad y facilita la interpretación de las relaciones entre las observaciones.

```{r}
# Calcular distancias y realizar clustering jerárquico
hierarchical_model <- hclust(dist(data_normalized), method = "ward.D2")

# Visualizar el dendrograma
plot(hierarchical_model, main = "Dendrograma", sub = "", xlab = "", cex = 0.6)

# Cortar el dendrograma en el número óptimo de clusters
optimal_clusters <- 2
data$cluster <- cutree(hierarchical_model, k = optimal_clusters)

# Mostrar los clusters de diferentes formas:

# Tabla de frecuencias
table(data$cluster)

# Resumen de los datos agrupados por cluster
aggregate(data[, -ncol(data)], by = list(cluster = data$cluster), FUN = mean)

 
```

El dendrograma muestra la estructura jerárquica de los datos, donde las observaciones se agrupan en clusters en función de su similitud. Al cortar el dendrograma en el número óptimo de clusters, se obtiene una partición de los datos en dos grupos, lo que permite identificar las relaciones entre las observaciones y visualizar la estructura subyacente de los datos.

#### 3.4.5. DBSCAN

El algoritmo DBSCAN (Density-Based Spatial Clustering of Applications with Noise) es una técnica de clustering que agrupa los datos en función de la densidad de los puntos. Este enfoque es útil para identificar clusters de formas arbitrarias y detectar outliers en los datos.

En este caso, se ajusta el modelo DBSCAN con un radio máximo de 10 y un mínimo de 2 puntos para formar un cluster. Los puntos que no pertenecen a ningún cluster se consideran ruido.

```{r}


# Ajustar el modelo DBSCAN
eps <- 10  # Radio máximo para vecinos
minPts <- 2  # Puntos mínimos para formar un cluster
dbscan_model <- dbscan(data_normalized, eps = eps, minPts = minPts)

# Agregar etiquetas de cluster al dataset original
data$cluster <- dbscan_model$cluster

# Mostrar los clusters de diferentes formas:

# Tabla de frecuencias (los valores 0 son ruido)
table(data$cluster)

# Resumen de los datos agrupados por cluster (excluyendo ruido)
aggregate(data[data$cluster > 0, -ncol(data)], 
          by = list(cluster = data$cluster[data$cluster > 0]), 
          FUN = mean)


```
Como se puede observar, el algoritmo DBSCAN identifica 2 clusters y asigna los puntos que no pertenecen a ningún cluster como ruido. Uno de ellos con 566 por lo que no ha realizado una buena agrupación.

```{r}

# Calcular el coeficiente de silueta para diferentes métodos
silhouette_kmeans <- silhouette(kmeans_model$cluster, dist(data_normalized))
silhouette_hierarchical <- silhouette(cutree(hierarchical_model, k = optimal_clusters), dist(data_normalized))
silhouette_dbscan <- silhouette(dbscan_model$cluster, dist(data_normalized))

# Visualizar los coeficientes
plot(silhouette_kmeans, main = "Silueta - K-Means")
plot(silhouette_hierarchical, main = "Silueta - Clustering Jerárquico")
plot(silhouette_dbscan, main = "Silueta - DBSCAN")
```
Como resultado de la comparación, el k-means tiene una media de anchura de silueta de 0,35, el clustering jerárquico de 0,29 y el DBSCAN de 0,35. Esto sugiere que los clusters generados por k-means y DBSCAN son más cohesivos y bien definidos en comparación con el clustering jerárquico. El DBSCAN y k-means tienen una mayor cohesión y separación entre los clusters, lo que indica que estos algoritmos son más efectivos para agrupar los datos en función de la similitud entre las observaciones.


El siguiente paso en nuestro análisis no supervisado es aplicar el Análisis de Componentes Principales (PCA). Esta técnica permitirá visualizar la estructura de los datos, así como validar los resultados obtenidos a través del clustering.

#### 3.4.4. Reducción de dimensionalidad con PCA

La dimensionalidad se reducirá transformando las variables originales en componentes principales para identificar la mayor parte de la variabilidad en los datos. Esto facilita la visualización de la estructura subyacente y optimiza la interpretación de los resultados del clustering. PCA simplifica el análisis al reducir la complejidad de los datos. Seleccionamos los componentes principales que expliquen al menos el 95% de la varianza acumulada.

```{r}
pca_model <- prcomp(data_normalized, scale = TRUE)
explained_variance <- cumsum(pca_model$sdev^2 / sum(pca_model$sdev^2))
num_components <- which(explained_variance >= 0.95)[1]  # Seleccionar componentes que expliquen el 95% de la varianza
data_pca <- as.data.frame(pca_model$x[, 1:num_components])



```


#### 3.4.5. Reducción de dimensionalidad con t-SNE

t-distributed Stochastic Neighbor Embedding es una técnica no supervisada de reducción no lineal de la dimensionalidad para la exploración de datos y la visualización de datos de alta dimensión:


```{r}

set.seed(42)
tsne_model <- Rtsne(data_normalized, perplexity = 30, theta = 0.5, dims = 2)
data_tsne <- as.data.frame(tsne_model$Y)
colnames(data_tsne) <- c("Dim1", "Dim2")

```


#### 3.4.6. Clustering en los Datasets Reducidos

Aplicamos K-means a los datasets generados por PCA y t-SNE, utilizando el mismo número de clusters determinado previamente.

#### 3.4.6.1 K-means con PCA

```{r}
kmeans_pca <- kmeans(data_pca, centers = optimal_clusters, nstart = 25)
data_pca$cluster <- kmeans_pca$cluster

# Visualización
ggplot(data_pca, aes(x = PC1, y = PC2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clustering K-means (PCA)")

```


#### 3.4.6.2 K-means con t-SNE


```{r}
kmeans_tsne <- kmeans(data_tsne, centers = optimal_clusters, nstart = 25)
data_tsne$cluster <- kmeans_tsne$cluster

# Visualización
ggplot(data_tsne, aes(x = Dim1, y = Dim2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clustering K-means (t-SNE)")

```


#### 3.4.6.3 Comparación de Resultados

```{r}
# Visualización PCA
ggplot(data_pca, aes(x = PC1, y = PC2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clusters visualizados en espacio PCA")

# Visualización t-SNE
ggplot(data_tsne, aes(x = Dim1, y = Dim2, color = as.factor(cluster))) +
  geom_point() +
  theme_minimal() +
  labs(title = "Clusters visualizados en espacio t-SNE")

```


Se visualizan claramente dos clústeres.

Los clusters están bien definidos y separados espacialmente.

Existe un grado menor de solapamiento entre los clusters, lo que sugiere que las variables originales ofrecen una separación más clara entre las clases en este espacio.


#### 3.4.6.4 Índice Silouhette

Para visualizar mejor la comparación de ello vamos a usar el Silhouette Score, una métrica utilzada para evaluar la calidad de los clusters. El valor oscila entre -1 y 1, donde:

- Un valor cercano a 1 indica que los puntos están bien agrupados.
- Un valor cercano a 0 indica que los puntos están en la frontera, es decir, el agrupamiento resulta ambiguo.
- Un valor cercano a -1 sugiere que los puntos podrían haber sido asignados al cluster incorrecto, es decir, el modelo no logró agruparlos adecuadamente. 

```{r}
# Silhouette para clustering con PCA
silhouette_pca <- mean(silhouette(kmeans_pca$cluster, dist(data_pca))[, 3])

# Silhouette para clustering con t-SNE
silhouette_tsne <- mean(silhouette(kmeans_tsne$cluster, dist(data_tsne))[, 3])

# Comparación
cat("Silhouette Score - Sin reducción:", silhouette_scores[optimal_clusters], "\n")
cat("Silhouette Score - PCA:", silhouette_pca, "\n")
cat("Silhouette Score - t-SNE:", silhouette_tsne, "\n")

```
Silhouette Score - Sin reducción: 0.3482031 
Silhouette Score - PCA: 0.3678096 
Silhouette Score - t-SNE: 0.5216206 
El Silhouette Score sin reducción es 0.34, lo que indica una media calidad de los clusters. Un valor cercano a 0.7 es generalmente considerado como un indicador de que el modelo está logrando una buena separación entre los clusters y que los puntos dentro de cada cluster son bastante similares entre sí.
El Silhouette Score después de realizar PCA es 0.36, lo que indica una mejora en la calidad de los clusters en comparación con los datos originales. Esto sugiere que la reducción de dimensionalidad ha permitido una mejor separación de los clusters y una mayor cohesión dentro de cada cluster.
El Silhouette Score después de realizar t-SNE es 0.52, lo que indica una mejora significativa en la calidad de los clusters en comparación con los datos originales y con la reducción de dimensionalidad mediante PCA. Esto sugiere que t-SNE ha logrado una mejor separación de los clusters y una mayor cohesión dentro de cada cluster.



El siguiente algoritmo utilizado en el análisis no supervisado es el Apriori para reglas de asociación.

#### 3.4.6. Reglas de asociación con algoritmo Apriori.

Las reglas de asociación se emplean en Data Mining para identificar relaciones entre elementos de un conjunto de datos. Estas relaciones ayudan a encontrar patrones en los datos y están formadas por un antecedente {a} y un consecuente {b}, indicando que {a} -\> {b}. Es relevante conocer términos como:

Soporte: Proporción de transacciones que contienen ambos conjuntos de ítems (antecedente y consecuente). Confianza: Indicador de cuán bien predice el antecedente al consecuente.

*Algoritmo Apriori*

Se utilizará el Algoritmo Apriori para obtener las reglas de asociación, ya que resulta útil para identificar itemsets frecuentes en datos transaccionales, como eventos registrados en un intervalo de tiempo determinado.

##### Fase 1: Reducción del número de candidatos

1.  Primero, se generan todos los itemsets con un único ítem. Luego, estos itemsets se combinan para formar itemsets con dos elementos, y así sucesivamente. Se seleccionarán únicamente los pares cuyo soporte sea mayor o igual a un umbral minsup, eliminando aquellos que no cumplan con este criterio.

Se instalará el paquete necesario (arules), que es un paquete en R que proporciona funcionalidades para trabajar con reglas de asociación.


2.  Se cargan los datos como transacciones en el formato `basket`, interpretando cada transacción como un conjunto de ítems (basket). Esto permite manejar tanto datos categóricos (como diagnosis) como continuos (los otros atributos) en la misma transacción.

```{r}
transacciones <- read.transactions("data_reduced.csv", format = "basket", sep = ",")

```

##### Fase 2: Generar reglas Parámetros: soporte mínimo (0.01 -\> 1%) y confianza mínima (80%)

En esta fase, se procederá a generar las reglas de asociación utilizando los parámetros de soporte mínimo (0.01 - 1%) y confianza mínima (80%). Estos valores permiten filtrar las reglas que son suficientemente frecuentes y confiables, asegurando que se obtengan relaciones significativas entre los ítems en los datos.

```{r}
reglasAsociacion <- apriori(transacciones, parameter = list(supp = 0.01, conf = 0.8))

```

Se filtran las reglas basadas en el lift y la confianza, de modo que solo se consideren aquellas con un lift mayor a 1.5 y una confianza superior al 80%. Un lift \> 1.5 indica una fuerte asociación entre los ítems en la regla, mientras que una confianza ≥ 0.8 asegura que la probabilidad de que el consecuente ocurra cuando el antecedente está presente es alta.

```{r}
filtradas <- subset(reglasAsociacion, lift > 1.5 & confidence >= 0.8)
inspect(filtradas)


```

Como se puede observar, se ha generado una regla de asociación con un soporte del 2.28%, una confianza del 100% y un lift de 1.59. 

No se ha conseguido encontrar reglas de asociación significativas con los datos reducidos. Esto puede deberse a la falta de variabilidad en los datos o a la reducción de variables, lo que limita la capacidad del algoritmo para encontrar relaciones significativas entre los ítems.

#### 3.4.6.1 Visualización de las Reglas de Asociación:

```{r}
# Instalar el paquete de visualización


# Visualizar las reglas
plot(filtradas, method = "graph")

```





### 4. Conclusiones


Hemos llevado a cabo un análisis exhaustivo del conjunto de datos de cáncer de mama, explorando tanto modelos de aprendizaje supervisado como no supervisado y la identificación de reglas de asociación. Los modelos Random Forest y SVM destacaron por su rendimiento excepcional, logrando altas puntuaciones de AUC y sensibilidad. Las variables más importantes para predecir el cáncer de mama fueron "perimeter_worst", "area_worst" y "concave.points_worst". La eliminación de variables menos importantes no afectó significativamente el desempeño de los modelos, lo que sugiere que estas variables no aportaban información relevante ni introducían ruido, permitiendo modelos más eficientes y menos propensos al sobreajuste. En el aprendizaje no supervisado, el clustering sin reducción de dimensionalidad proporcionó la mejor separación entre clusters, con un Silhouette Score más alto de 0.68. Sin embargo, la PCA redujo significativamente la calidad del clustering al eliminar componentes clave. t-SNE mostró una calidad intermedia (0.54) en comparación con el espacio original de las variables, destacando su utilidad para la visualización pero limitando la preservación de la estructura del clustering. Este análisis subraya la importancia de emplear diversas técnicas de análisis de datos para obtener una comprensión completa de los patrones y relaciones en los datos de cáncer de mama.

### 5. Referencias

-   [UCI Machine Learning Repository: Breast Cancer Wisconsin (Diagnostic) Data Set](https://archive.ics.uci.edu/ml/datasets/Breast+Cancer+Wisconsin+(Diagnostic))
-   Asignatura de Fundamentos de ingeniería de datos de la Universidad de Sevilla.
